Compare commits
1 Commits
main
...
artamonova
Author | SHA1 | Date | |
---|---|---|---|
224878be45 |
@ -1 +0,0 @@
|
|||||||
main.py
|
|
@ -1,12 +0,0 @@
|
|||||||
<component name="InspectionProjectProfileManager">
|
|
||||||
<profile version="1.0">
|
|
||||||
<option name="myName" value="Project Default" />
|
|
||||||
<inspection_tool class="PyUnresolvedReferencesInspection" enabled="true" level="WARNING" enabled_by_default="true">
|
|
||||||
<option name="ignoredIdentifiers">
|
|
||||||
<list>
|
|
||||||
<option value="str.__pos__" />
|
|
||||||
</list>
|
|
||||||
</option>
|
|
||||||
</inspection_tool>
|
|
||||||
</profile>
|
|
||||||
</component>
|
|
@ -1,6 +0,0 @@
|
|||||||
<component name="InspectionProjectProfileManager">
|
|
||||||
<settings>
|
|
||||||
<option name="USE_PROJECT_PROFILE" value="false" />
|
|
||||||
<version value="1.0" />
|
|
||||||
</settings>
|
|
||||||
</component>
|
|
@ -1,4 +0,0 @@
|
|||||||
<?xml version="1.0" encoding="UTF-8"?>
|
|
||||||
<project version="4">
|
|
||||||
<component name="ProjectRootManager" version="2" project-jdk-name="Python 3.9 (tukaeva_alfiya_lab_4)" project-jdk-type="Python SDK" />
|
|
||||||
</project>
|
|
@ -1,48 +0,0 @@
|
|||||||
## Отчет по Docker Compose конфигурации
|
|
||||||
|
|
||||||
### Краткое описание:
|
|
||||||
|
|
||||||
Данная конфигурация Docker Compose запускает набор сервисов, необходимых для работы WordPress и MediaWiki. Она включает в себя:
|
|
||||||
|
|
||||||
- **WordPress:** веб-сервис для блогов и CMS
|
|
||||||
- **MySQL:** база данных для хранения данных WordPress
|
|
||||||
- **RabbitMQ:** брокер сообщений для потенциального использования в будущем
|
|
||||||
- **MediaWiki:** вики-движок для создания и редактирования вики-страниц
|
|
||||||
|
|
||||||
### Запуск лабораторной работы:
|
|
||||||
|
|
||||||
1. Установить Docker и Docker Compose.
|
|
||||||
2. Сохранить конфигурацию в файл docker-compose.yml.
|
|
||||||
3. Запустить команду docker-compose up --build
|
|
||||||
|
|
||||||
### Используемые технологии:
|
|
||||||
|
|
||||||
- **Docker Compose:** инструмент для определения и запуска многоконтейнерных приложений.
|
|
||||||
- **Docker:** платформа для создания, развертывания и запуска контейнеров.
|
|
||||||
- **WordPress:** популярная платформа для создания блогов и CMS.
|
|
||||||
- **MySQL:** популярная система управления базами данных.
|
|
||||||
- **RabbitMQ:** брокер сообщений, используемый для асинхронного обмена сообщениями.
|
|
||||||
- **MediaWiki:** свободное программное обеспечение для создания и редактирования вики-страниц.
|
|
||||||
|
|
||||||
### Функциональность:
|
|
||||||
|
|
||||||
Конфигурация запускает следующие сервисы:
|
|
||||||
|
|
||||||
- **WordPress:** работает на порту 8080, доступен по адресу http://localhost:8080.
|
|
||||||
- **MySQL:** предоставляет базу данных для WordPress и MediaWiki.
|
|
||||||
- **RabbitMQ:** работает на порту 5672, доступен по адресу http://localhost:15672 для управления.
|
|
||||||
- **MediaWiki:** работает на порту 8081, доступен по адресу http://localhost:8081.
|
|
||||||
|
|
||||||
### Дополнительные сведения
|
|
||||||
|
|
||||||
- **Volumes**: используются для хранения данных сервисов, чтобы они не терялись при перезапуске контейнеров.
|
|
||||||
- **Depends_on**: указывает на зависимость между сервисами, например, WordPress зависит от MySQL.
|
|
||||||
- **Restart policy**: определяет, как сервисы будут перезапускаться после сбоя.
|
|
||||||
|
|
||||||
### Видео
|
|
||||||
|
|
||||||
https://vk.com/video/@artamonovat?z=video212084908_456239356%2Fpl_212084908_-2
|
|
||||||
|
|
||||||
### Заключение:
|
|
||||||
|
|
||||||
Данная конфигурация Docker Compose обеспечивает простой и удобный способ запуска и управления несколькими сервисами, связанными с WordPress и MediaWiki. Она позволяет разработчикам легко развертывать и управлять приложениями в изолированной среде.
|
|
@ -1,61 +0,0 @@
|
|||||||
version: '3.7'
|
|
||||||
|
|
||||||
services:
|
|
||||||
wordpress:
|
|
||||||
image: wordpress:latest
|
|
||||||
ports:
|
|
||||||
- "8080:80"
|
|
||||||
volumes:
|
|
||||||
- wordpress_data:/var/www/html
|
|
||||||
environment:
|
|
||||||
WORDPRESS_DB_HOST: db
|
|
||||||
WORDPRESS_DB_NAME: wordpress
|
|
||||||
WORDPRESS_DB_USER: wordpress
|
|
||||||
WORDPRESS_DB_PASSWORD: password
|
|
||||||
depends_on:
|
|
||||||
- db
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
db:
|
|
||||||
image: mysql:latest
|
|
||||||
volumes:
|
|
||||||
- db_data:/var/lib/mysql
|
|
||||||
environment:
|
|
||||||
MYSQL_DATABASE: wordpress
|
|
||||||
MYSQL_USER: wordpress
|
|
||||||
MYSQL_PASSWORD: dbpassword
|
|
||||||
MYSQL_ROOT_PASSWORD: rootpassword
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
rabbitmq:
|
|
||||||
image: rabbitmq:3-management
|
|
||||||
ports:
|
|
||||||
- "5672:5672"
|
|
||||||
- "15672:15672"
|
|
||||||
volumes:
|
|
||||||
- rabbitmq_data:/var/lib/rabbitmq
|
|
||||||
environment:
|
|
||||||
RABBITMQ_DEFAULT_USER: guest
|
|
||||||
RABBITMQ_DEFAULT_PASS: password
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
mediawiki:
|
|
||||||
image: mediawiki:latest
|
|
||||||
ports:
|
|
||||||
- "8081:80"
|
|
||||||
volumes:
|
|
||||||
- mediawiki_data:/var/www/html
|
|
||||||
environment:
|
|
||||||
MW_DB_SERVER: db
|
|
||||||
MW_DB_NAME: mediawiki
|
|
||||||
MW_DB_USER: mediawiki
|
|
||||||
MW_DB_PASSWORD: mediawiki_password
|
|
||||||
depends_on:
|
|
||||||
- db
|
|
||||||
restart: unless-stopped
|
|
||||||
|
|
||||||
volumes:
|
|
||||||
wordpress_data:
|
|
||||||
db_data:
|
|
||||||
rabbitmq_data:
|
|
||||||
mediawiki_data:
|
|
5
artamonova_tatyana_lab_2/.gitignore
vendored
@ -1,5 +0,0 @@
|
|||||||
*.pyc
|
|
||||||
__pycache__
|
|
||||||
*.egg-info
|
|
||||||
*.dist-info
|
|
||||||
.DS_Store
|
|
@ -1,22 +0,0 @@
|
|||||||
## Лабораторная работа №2
|
|
||||||
### Выполнила Артамонова Татьяна ПИбд-42
|
|
||||||
|
|
||||||
**Вариант 1: Программа 4 - Количество символов в именах файлов из каталога /var/data**
|
|
||||||
|
|
||||||
- Формирует файл /var/result/data1.txt так, что каждая строка файла - количество символов в именах файлов из каталога /var/data.
|
|
||||||
|
|
||||||
**Вариант 2: Программа 3 - Количество чисел в последовательности**
|
|
||||||
|
|
||||||
- Ищет набольшее число из файла /var/result/data1.txt и сохраняет количество таких чисел из последовательности в /var/result/data2.txt.
|
|
||||||
|
|
||||||
**Структура проекта:**
|
|
||||||
|
|
||||||
1. В папках worker-1, worker-2 лежат выполняемые файлы .py и Dockerfile-ы с необходимым набором инструкций.
|
|
||||||
2. В папке data лежат файлы, длину имен которых нужно посчитать.
|
|
||||||
3. В папке result лежат файлы с результатами выполнения программ. data1.txt - результат выполнения main1.py (worker-1), data2.txt - результат выполнения main2.py (worker-2). Данные в data2 рассчитываются из данных data1.
|
|
||||||
4. Файл .gitignore - для указания, какие файлы отслеживать, а какие - нет.
|
|
||||||
5. docker-compose.yml - для определения и управления контейнерами Docker.
|
|
||||||
|
|
||||||
**Команда для запуска** - docker-compose up --build
|
|
||||||
|
|
||||||
**Ссылка на видео:** https://vk.com/artamonovat?z=video212084908_456239357%2Fvideos212084908%2Fpl_212084908_-2
|
|
@ -1,22 +0,0 @@
|
|||||||
services:
|
|
||||||
worker-1:
|
|
||||||
build:
|
|
||||||
context: ./worker-1
|
|
||||||
volumes:
|
|
||||||
- ./worker-1:/app
|
|
||||||
- ./data:/var/data
|
|
||||||
- ./result:/var/result
|
|
||||||
depends_on:
|
|
||||||
- worker-2
|
|
||||||
|
|
||||||
worker-2:
|
|
||||||
build:
|
|
||||||
context: ./worker-2
|
|
||||||
volumes:
|
|
||||||
- ./worker-2:/app
|
|
||||||
- ./data:/var/data
|
|
||||||
- ./result:/var/result
|
|
||||||
|
|
||||||
volumes:
|
|
||||||
data:
|
|
||||||
result:
|
|
@ -1,3 +0,0 @@
|
|||||||
15
|
|
||||||
18
|
|
||||||
18
|
|
@ -1 +0,0 @@
|
|||||||
2
|
|
@ -1,14 +0,0 @@
|
|||||||
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
|
||||||
# slim-версия образа более компактная, что делает контейнер меньше.
|
|
||||||
FROM python:3.10-slim
|
|
||||||
|
|
||||||
# Устанавливаем рабочую директорию в контейнере как /app.
|
|
||||||
# Все последующие команды будут выполняться в этой директории.
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
# Копируем файл main1.py из текущей директории в директорию /app в контейнере.
|
|
||||||
COPY main1.py .
|
|
||||||
|
|
||||||
# Определяем команду, которая будет выполняться при запуске контейнера.
|
|
||||||
# В данном случае запускается Python-скрипт main1.py.
|
|
||||||
CMD ["python", "main1.py"]
|
|
@ -1,21 +0,0 @@
|
|||||||
import os
|
|
||||||
import glob
|
|
||||||
|
|
||||||
# Формирует файл data1.txt так, что каждая строка файла - кол-во символов в именах файла из каталога /data
|
|
||||||
def main():
|
|
||||||
data_dir = "/var/data"
|
|
||||||
result_file = "/var/result/data1.txt"
|
|
||||||
|
|
||||||
result_dir = os.path.dirname(result_file)
|
|
||||||
if not os.path.exists(result_dir):
|
|
||||||
os.makedirs(result_dir)
|
|
||||||
|
|
||||||
files = glob.glob(os.path.join(data_dir, '*'))
|
|
||||||
|
|
||||||
with open(result_file, 'w') as f:
|
|
||||||
for file in files:
|
|
||||||
filename = os.path.basename(file)
|
|
||||||
f.write(f"{len(filename)}\n")
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
main()
|
|
@ -1,14 +0,0 @@
|
|||||||
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
|
||||||
# slim-версия образа более компактная, что делает контейнер меньше.
|
|
||||||
FROM python:3.10-slim
|
|
||||||
|
|
||||||
# Устанавливаем рабочую директорию в контейнере как /app.
|
|
||||||
# Все последующие команды будут выполняться в этой директории.
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
# Копируем файл main2.py из текущей директории в директорию /app в контейнере.
|
|
||||||
COPY main2.py .
|
|
||||||
|
|
||||||
# Определяем команду, которая будет выполняться при запуске контейнера.
|
|
||||||
# В данном случае запускается Python-скрипт main2.py.
|
|
||||||
CMD ["python", "main2.py"]
|
|
@ -1,26 +0,0 @@
|
|||||||
import os
|
|
||||||
|
|
||||||
# Ищет наибольшее число из файла data1.txt и сохраняет количество таких чисел из последовательности в data2.txt
|
|
||||||
def main():
|
|
||||||
data_file_path = "/var/result/data1.txt"
|
|
||||||
result_file_path = "/var/result/data2.txt"
|
|
||||||
|
|
||||||
if not os.path.exists(data_file_path):
|
|
||||||
data_dir = os.path.dirname(data_file_path)
|
|
||||||
|
|
||||||
if not os.path.exists(result_file_path):
|
|
||||||
result_dir = os.path.dirname(result_file_path)
|
|
||||||
|
|
||||||
with open(data_file_path, 'r') as f:
|
|
||||||
numbers = [int(x.strip()) for x in f.read().splitlines()]
|
|
||||||
|
|
||||||
max_number = max(numbers)
|
|
||||||
count = numbers.count(max_number)
|
|
||||||
|
|
||||||
with open(result_file_path, 'w') as f:
|
|
||||||
f.write(str(count))
|
|
||||||
|
|
||||||
print(f"Количество наибольших чисел: {count}")
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
main()
|
|
36
artamonova_tatyana_lab_5/README.md
Normal file
@ -0,0 +1,36 @@
|
|||||||
|
|
||||||
|
# Лабораторная работа №5 ПИбд-42 Артамоновой Татьяны
|
||||||
|
|
||||||
|
## Запуск лабораторной работы
|
||||||
|
|
||||||
|
1. Установить библиотеки Python и NumPy
|
||||||
|
3. Запустить скрипт matrix.py с помощью команды: *python matrix.py*
|
||||||
|
|
||||||
|
## Используемые технологии
|
||||||
|
|
||||||
|
- Язык программирования: Python
|
||||||
|
- Библиотеки:
|
||||||
|
* numpy: Для работы с массивами и матрицами
|
||||||
|
* multiprocessing: Для параллельного выполнения кода
|
||||||
|
* time: Для измерения времени выполнения
|
||||||
|
|
||||||
|
## Задание на лабораторную работу
|
||||||
|
|
||||||
|
**Кратко:** реализовать умножение двух больших квадратных матриц.
|
||||||
|
|
||||||
|
**Подробно:** в лабораторной работе требуется сделать два алгоритма: обычный и параллельный (задание со * -
|
||||||
|
реализовать это в рамках одного алгоритма). В параллельном алгоритме предусмотреть ручное задание количества
|
||||||
|
потоков (число потоков = 1 как раз и реализует задание со *), каждый из которых будет выполнять умножение
|
||||||
|
элементов матрицы в рамках своей зоны ответственности.
|
||||||
|
|
||||||
|
## Результаты
|
||||||
|
|
||||||
|
![Результат работы](images/results.png)
|
||||||
|
|
||||||
|
## Вывод
|
||||||
|
|
||||||
|
Результаты показывают, что для маленьких матриц последовательное умножение быстрее.
|
||||||
|
Оптимальное количество потоков близко к количеству ядер процессора. Увеличение количества потоков сверх
|
||||||
|
оптимального значения не всегда ускоряет вычисления. Параллелизм эффективнее для больших матриц.
|
||||||
|
|
||||||
|
### [Видео](https://vk.com/video212084908_456239362)
|
BIN
artamonova_tatyana_lab_5/images/results.png
Normal file
After Width: | Height: | Size: 107 KiB |
93
artamonova_tatyana_lab_5/matrix.py
Normal file
@ -0,0 +1,93 @@
|
|||||||
|
import time
|
||||||
|
import multiprocessing
|
||||||
|
import numpy as np
|
||||||
|
|
||||||
|
def multiply_matrices_sequential(matrix1, matrix2):
|
||||||
|
rows1 = len(matrix1)
|
||||||
|
cols1 = len(matrix1[0])
|
||||||
|
rows2 = len(matrix2)
|
||||||
|
cols2 = len(matrix2[0])
|
||||||
|
|
||||||
|
if cols1 != rows2:
|
||||||
|
raise ValueError("Число столбцов первой матрицы должно быть равно числу строк второй матрицы.")
|
||||||
|
|
||||||
|
result = [[0 for _ in range(cols2)] for _ in range(rows1)]
|
||||||
|
for i in range(rows1):
|
||||||
|
for j in range(cols2):
|
||||||
|
for k in range(cols1):
|
||||||
|
result[i][j] += matrix1[i][k] * matrix2[k][j]
|
||||||
|
return result
|
||||||
|
|
||||||
|
def multiply_matrices_parallel(matrix1, matrix2, num_processes):
|
||||||
|
rows1 = len(matrix1)
|
||||||
|
cols1 = len(matrix1[0])
|
||||||
|
rows2 = len(matrix2)
|
||||||
|
cols2 = len(matrix2[0])
|
||||||
|
|
||||||
|
if cols1 != rows2:
|
||||||
|
raise ValueError("Число столбцов первой матрицы должно быть равно числу строк второй матрицы.")
|
||||||
|
|
||||||
|
chunk_size = rows1 // num_processes
|
||||||
|
processes = []
|
||||||
|
results = []
|
||||||
|
|
||||||
|
with multiprocessing.Pool(processes=num_processes) as pool:
|
||||||
|
for i in range(num_processes):
|
||||||
|
start_row = i * chunk_size
|
||||||
|
end_row = (i + 1) * chunk_size if i < num_processes - 1 else rows1
|
||||||
|
p = pool.apply_async(multiply_matrix_chunk, (matrix1, matrix2, start_row, end_row))
|
||||||
|
processes.append(p)
|
||||||
|
|
||||||
|
for p in processes:
|
||||||
|
results.append(p.get())
|
||||||
|
|
||||||
|
result = [[0 for _ in range(cols2)] for _ in range(rows1)]
|
||||||
|
row_index = 0
|
||||||
|
for sub_result in results:
|
||||||
|
for row in sub_result:
|
||||||
|
result[row_index] = row
|
||||||
|
row_index += 1
|
||||||
|
|
||||||
|
return result
|
||||||
|
|
||||||
|
|
||||||
|
def multiply_matrix_chunk(matrix1, matrix2, start_row, end_row):
|
||||||
|
rows2 = len(matrix2)
|
||||||
|
cols2 = len(matrix2[0])
|
||||||
|
cols1 = len(matrix1[0])
|
||||||
|
result = [[0 for _ in range(cols2)] for _ in range(end_row - start_row)]
|
||||||
|
for i in range(end_row - start_row):
|
||||||
|
for j in range(cols2):
|
||||||
|
for k in range(cols1):
|
||||||
|
result[i][j] += matrix1[i + start_row][k] * matrix2[k][j]
|
||||||
|
return result
|
||||||
|
|
||||||
|
|
||||||
|
def benchmark(matrix_size, num_processes):
|
||||||
|
matrix1 = np.random.rand(matrix_size, matrix_size).tolist()
|
||||||
|
matrix2 = np.random.rand(matrix_size, matrix_size).tolist()
|
||||||
|
|
||||||
|
try:
|
||||||
|
start_time = time.time()
|
||||||
|
sequential_result = multiply_matrices_sequential(matrix1, matrix2)
|
||||||
|
end_time = time.time()
|
||||||
|
sequential_time = end_time - start_time
|
||||||
|
|
||||||
|
start_time = time.time()
|
||||||
|
parallel_result = multiply_matrices_parallel(matrix1, matrix2, num_processes)
|
||||||
|
end_time = time.time()
|
||||||
|
parallel_time = end_time - start_time
|
||||||
|
return sequential_time, parallel_time
|
||||||
|
except ValueError as e:
|
||||||
|
print(f"Ошибка бенчмарка с размером матрицы {matrix_size} и {num_processes} процессов: {e}")
|
||||||
|
return float('inf'), float('inf')
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
sizes = [100, 300, 500]
|
||||||
|
num_processes = int(input("Введите количество потоков: "))
|
||||||
|
print("Размер | Последовательно | Параллельно")
|
||||||
|
|
||||||
|
for size in sizes:
|
||||||
|
sequential_time, parallel_time = benchmark(size, num_processes)
|
||||||
|
print(f"{size:6} | {sequential_time:.4f} с \t | {parallel_time:.4f} с")
|
@ -1,6 +1,11 @@
|
|||||||
# Распределенные вычисления и приложения Л3
|
# Распределенные вычисления и приложения Л2
|
||||||
## _Автор Базунов Андрей Игревич ПИбд-42_
|
## _Автор Базунов Андрей Игревич ПИбд-42_
|
||||||
|
|
||||||
|
Сервисы ( _порядок исполнения сервисов соблюден_ ):
|
||||||
|
- 1.FileCreator - (_Создание тестовых данных_)
|
||||||
|
- 2.FirstService - (_Выполнение 1.4 варианта задания_)
|
||||||
|
- 3.SecondService - (_Выполнение 2.2 варианта задания_)
|
||||||
|
|
||||||
В качестве основного языка был выбран GoLang. Для каждого сервиса был создан DOCKERFILE где были прописаны условия и действия для сборки каждого из модулей
|
В качестве основного языка был выбран GoLang. Для каждого сервиса был создан DOCKERFILE где были прописаны условия и действия для сборки каждого из модулей
|
||||||
|
|
||||||
# Docker
|
# Docker
|
||||||
@ -22,4 +27,4 @@ docker-compose up -d --build
|
|||||||
docker-compose down
|
docker-compose down
|
||||||
```
|
```
|
||||||
|
|
||||||
[Демонстрация работы](https://vk.com/video/@viltskaa?z=video236673313_456239577%2Fpl_236673313_-2)
|
[Демонстрация работы](https://vk.com/video236673313_456239575)
|
BIN
bazunov_andrew_lab_3/PersonApp/.DS_Store
vendored
@ -1,4 +0,0 @@
|
|||||||
PORT=8080
|
|
||||||
TASK_APP_URL=http://task-app:8000
|
|
||||||
TIMEOUT=15
|
|
||||||
DATABASE=./database.db
|
|
@ -1,14 +0,0 @@
|
|||||||
FROM golang:1.23
|
|
||||||
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
COPY go.mod go.sum ./
|
|
||||||
RUN go mod download
|
|
||||||
|
|
||||||
COPY . .
|
|
||||||
|
|
||||||
RUN go build -o /bin/PersonApp
|
|
||||||
|
|
||||||
EXPOSE 8080
|
|
||||||
|
|
||||||
CMD ["/bin/PersonApp"]
|
|
@ -1,10 +0,0 @@
|
|||||||
module PersonApp
|
|
||||||
|
|
||||||
go 1.23.1
|
|
||||||
|
|
||||||
require (
|
|
||||||
github.com/gorilla/mux v1.8.1
|
|
||||||
github.com/mattn/go-sqlite3 v1.14.24
|
|
||||||
)
|
|
||||||
|
|
||||||
require github.com/joho/godotenv v1.5.1 // indirect
|
|
@ -1,6 +0,0 @@
|
|||||||
github.com/gorilla/mux v1.8.1 h1:TuBL49tXwgrFYWhqrNgrUNEY92u81SPhu7sTdzQEiWY=
|
|
||||||
github.com/gorilla/mux v1.8.1/go.mod h1:AKf9I4AEqPTmMytcMc0KkNouC66V3BtZ4qD5fmWSiMQ=
|
|
||||||
github.com/joho/godotenv v1.5.1 h1:7eLL/+HRGLY0ldzfGMeQkb7vMd0as4CfYvUVzLqw0N0=
|
|
||||||
github.com/joho/godotenv v1.5.1/go.mod h1:f4LDr5Voq0i2e/R5DDNOoa2zzDfwtkZa6DnEwAbqwq4=
|
|
||||||
github.com/mattn/go-sqlite3 v1.14.24 h1:tpSp2G2KyMnnQu99ngJ47EIkWVmliIizyZBfPrBWDRM=
|
|
||||||
github.com/mattn/go-sqlite3 v1.14.24/go.mod h1:Uh1q+B4BYcTPb+yiD3kU8Ct7aC0hY9fxUwlHK0RXw+Y=
|
|
@ -1,157 +0,0 @@
|
|||||||
package handlers
|
|
||||||
|
|
||||||
import (
|
|
||||||
"PersonApp/httpClient"
|
|
||||||
"PersonApp/models"
|
|
||||||
"PersonApp/repository"
|
|
||||||
"encoding/json"
|
|
||||||
"fmt"
|
|
||||||
"github.com/gorilla/mux"
|
|
||||||
"net/http"
|
|
||||||
"strconv"
|
|
||||||
)
|
|
||||||
|
|
||||||
func InitRoutes(r *mux.Router, rep repository.PersonRepository, cln httpClient.Client) {
|
|
||||||
r.HandleFunc("/", GetPersons(rep, cln)).Methods("GET")
|
|
||||||
r.HandleFunc("/{id:[0-9]+}", GetPersonById(rep, cln)).Methods("GET")
|
|
||||||
r.HandleFunc("/", CreatePerson(rep)).Methods("POST")
|
|
||||||
r.HandleFunc("/{id:[0-9]+}", UpdatePerson(rep)).Methods("PUT")
|
|
||||||
r.HandleFunc("/{id:[0-9]+}", DeletePerson(rep)).Methods("DELETE")
|
|
||||||
}
|
|
||||||
|
|
||||||
func GetPersons(rep repository.PersonRepository, cln httpClient.Client) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
fmt.Println("GET PERSONS")
|
|
||||||
|
|
||||||
persons, err := rep.GetAllPersons()
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
for i := 0; i < len(persons); i++ {
|
|
||||||
tasks, _ := cln.GetPersonTasks(persons[i].Id)
|
|
||||||
persons[i].Tasks = tasks
|
|
||||||
}
|
|
||||||
|
|
||||||
err = json.NewEncoder(w).Encode(persons)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func GetPersonById(rep repository.PersonRepository, cln httpClient.Client) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
person, err := rep.GetPersonById(id)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
tasks, err := cln.GetPersonTasks(id)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
} else {
|
|
||||||
person.Tasks = tasks
|
|
||||||
}
|
|
||||||
|
|
||||||
err = json.NewEncoder(w).Encode(person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func CreatePerson(rep repository.PersonRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
|
|
||||||
var person *models.Person
|
|
||||||
|
|
||||||
err := json.NewDecoder(r.Body).Decode(&person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
person, err = rep.CreatePerson(*person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
w.WriteHeader(http.StatusCreated)
|
|
||||||
err = json.NewEncoder(w).Encode(person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func UpdatePerson(rep repository.PersonRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
var person *models.Person
|
|
||||||
err = json.NewDecoder(r.Body).Decode(&person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
person, err = rep.UpdatePerson(models.Person{
|
|
||||||
Id: id,
|
|
||||||
Name: person.Name,
|
|
||||||
Tasks: nil,
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
w.WriteHeader(http.StatusAccepted)
|
|
||||||
err = json.NewEncoder(w).Encode(person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func DeletePerson(rep repository.PersonRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
err = rep.DeletePerson(id)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
w.WriteHeader(http.StatusOK)
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,72 +0,0 @@
|
|||||||
package httpClient
|
|
||||||
|
|
||||||
import (
|
|
||||||
"PersonApp/models"
|
|
||||||
"encoding/json"
|
|
||||||
"fmt"
|
|
||||||
"io"
|
|
||||||
"net/http"
|
|
||||||
"time"
|
|
||||||
)
|
|
||||||
|
|
||||||
type Client interface {
|
|
||||||
GetPersonTasks(id int) ([]models.Task, error)
|
|
||||||
TestConnection() (bool, error)
|
|
||||||
}
|
|
||||||
|
|
||||||
type client struct {
|
|
||||||
BaseUrl string
|
|
||||||
Timeout time.Duration
|
|
||||||
}
|
|
||||||
|
|
||||||
func (c *client) TestConnection() (bool, error) {
|
|
||||||
client := &http.Client{Timeout: c.Timeout}
|
|
||||||
url := fmt.Sprintf("%s/", c.BaseUrl)
|
|
||||||
resp, err := client.Get(url)
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
return false, err
|
|
||||||
}
|
|
||||||
|
|
||||||
defer func(Body io.ReadCloser) {
|
|
||||||
err := Body.Close()
|
|
||||||
if err != nil {
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}(resp.Body)
|
|
||||||
|
|
||||||
if resp.StatusCode != http.StatusOK {
|
|
||||||
return false, fmt.Errorf("bad status code: %d", resp.StatusCode)
|
|
||||||
}
|
|
||||||
return true, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (c *client) GetPersonTasks(id int) ([]models.Task, error) {
|
|
||||||
client := &http.Client{Timeout: c.Timeout * time.Second}
|
|
||||||
url := fmt.Sprintf("%s/f/%d", c.BaseUrl, id)
|
|
||||||
|
|
||||||
resp, err := client.Get(url)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
defer func(Body io.ReadCloser) {
|
|
||||||
err := Body.Close()
|
|
||||||
if err != nil {
|
|
||||||
|
|
||||||
}
|
|
||||||
}(resp.Body)
|
|
||||||
|
|
||||||
body, _ := io.ReadAll(resp.Body)
|
|
||||||
|
|
||||||
var tasks []models.Task
|
|
||||||
if err := json.Unmarshal(body, &tasks); err != nil {
|
|
||||||
fmt.Printf("Unmarshal error: %s", err)
|
|
||||||
return []models.Task{}, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return tasks, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func NewClient(baseUrl string, timeout time.Duration) Client {
|
|
||||||
return &client{BaseUrl: baseUrl, Timeout: timeout}
|
|
||||||
}
|
|
@ -1,34 +0,0 @@
|
|||||||
GET http://localhost/person-app/
|
|
||||||
Accept: application/json
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
GET http://localhost/person-app/1
|
|
||||||
Accept: application/json
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
POST http://localhost/person-app/
|
|
||||||
Accept: application/json
|
|
||||||
Content-Type: application/json
|
|
||||||
|
|
||||||
{
|
|
||||||
"name": "TEST3"
|
|
||||||
}
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
PUT http://localhost/person-app/3
|
|
||||||
Accept: application/json
|
|
||||||
Content-Type: application/json
|
|
||||||
|
|
||||||
{
|
|
||||||
"name": "TEST11"
|
|
||||||
}
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
DELETE http://localhost/person-app/3
|
|
||||||
Accept: application/json
|
|
||||||
|
|
||||||
###
|
|
@ -1,47 +0,0 @@
|
|||||||
package main
|
|
||||||
|
|
||||||
import (
|
|
||||||
"PersonApp/handlers"
|
|
||||||
"PersonApp/httpClient"
|
|
||||||
"PersonApp/repository"
|
|
||||||
"PersonApp/storage"
|
|
||||||
"github.com/gorilla/mux"
|
|
||||||
"github.com/joho/godotenv"
|
|
||||||
"net/http"
|
|
||||||
"os"
|
|
||||||
"strconv"
|
|
||||||
"time"
|
|
||||||
)
|
|
||||||
|
|
||||||
func main() {
|
|
||||||
err := godotenv.Load(".env")
|
|
||||||
if err != nil {
|
|
||||||
panic("Error loading .env file")
|
|
||||||
}
|
|
||||||
|
|
||||||
url := os.Getenv("TASK_APP_URL")
|
|
||||||
port := os.Getenv("PORT")
|
|
||||||
databasePath := os.Getenv("DATABASE")
|
|
||||||
timeout, err := strconv.Atoi(os.Getenv("TIMEOUT"))
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
panic("Error converting timeout to int")
|
|
||||||
}
|
|
||||||
|
|
||||||
database, err := storage.Init(databasePath)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
cln := httpClient.NewClient(url, time.Duration(timeout))
|
|
||||||
rep := repository.NewPersonRepository(database)
|
|
||||||
router := mux.NewRouter()
|
|
||||||
handlers.InitRoutes(router, rep, cln)
|
|
||||||
|
|
||||||
err = http.ListenAndServe(":"+port, router)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
storage.Close(database)
|
|
||||||
}
|
|
@ -1,24 +0,0 @@
|
|||||||
package models
|
|
||||||
|
|
||||||
type Person struct {
|
|
||||||
Id int `json:"id"`
|
|
||||||
Name string `json:"name"`
|
|
||||||
Tasks []Task `json:"tasks"`
|
|
||||||
}
|
|
||||||
|
|
||||||
type PersonCreate struct {
|
|
||||||
Name string `json:"name"`
|
|
||||||
}
|
|
||||||
|
|
||||||
type Task struct {
|
|
||||||
Id int `json:"id"`
|
|
||||||
PersonId int `json:"person_id"`
|
|
||||||
Name string `json:"name"`
|
|
||||||
Date string `json:"date"`
|
|
||||||
}
|
|
||||||
|
|
||||||
type TaskCreate struct {
|
|
||||||
PersonId int `json:"person_id"`
|
|
||||||
Name string `json:"name"`
|
|
||||||
Date string `json:"date"`
|
|
||||||
}
|
|
@ -1,99 +0,0 @@
|
|||||||
package repository
|
|
||||||
|
|
||||||
import (
|
|
||||||
"PersonApp/models"
|
|
||||||
"database/sql"
|
|
||||||
)
|
|
||||||
|
|
||||||
type PersonRepository interface {
|
|
||||||
GetAllPersons() ([]models.Person, error)
|
|
||||||
GetPersonById(id int) (*models.Person, error)
|
|
||||||
CreatePerson(person models.Person) (*models.Person, error)
|
|
||||||
UpdatePerson(person models.Person) (*models.Person, error)
|
|
||||||
DeletePerson(id int) error
|
|
||||||
}
|
|
||||||
|
|
||||||
type personRepository struct {
|
|
||||||
DB *sql.DB
|
|
||||||
}
|
|
||||||
|
|
||||||
func NewPersonRepository(db *sql.DB) PersonRepository {
|
|
||||||
return &personRepository{DB: db}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (pr *personRepository) GetAllPersons() ([]models.Person, error) {
|
|
||||||
rows, err := pr.DB.Query("select * from Persons")
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
defer func(rows *sql.Rows) {
|
|
||||||
err := rows.Close()
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
}(rows)
|
|
||||||
|
|
||||||
var persons []models.Person
|
|
||||||
|
|
||||||
for rows.Next() {
|
|
||||||
p := models.Person{}
|
|
||||||
err := rows.Scan(&p.Id, &p.Name)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
persons = append(persons, p)
|
|
||||||
}
|
|
||||||
|
|
||||||
return persons, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (pr *personRepository) GetPersonById(id int) (*models.Person, error) {
|
|
||||||
row := pr.DB.QueryRow("select * from Persons where id=?", id)
|
|
||||||
|
|
||||||
person := models.Person{}
|
|
||||||
err := row.Scan(&person.Id, &person.Name)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return &person, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (pr *personRepository) CreatePerson(p models.Person) (*models.Person, error) {
|
|
||||||
res, err := pr.DB.Exec("INSERT INTO Persons (name) values (?)", p.Name)
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
if res == nil {
|
|
||||||
return nil, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
return &p, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (pr *personRepository) UpdatePerson(p models.Person) (*models.Person, error) {
|
|
||||||
res, err := pr.DB.Exec("UPDATE Persons SET name = ? WHERE id = ?", p.Name, p.Id)
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
if res == nil {
|
|
||||||
return nil, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
return &p, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (pr *personRepository) DeletePerson(id int) error {
|
|
||||||
_, err := pr.DB.Exec("DELETE FROM Persons WHERE id = ?", id)
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
@ -1,36 +0,0 @@
|
|||||||
package storage
|
|
||||||
|
|
||||||
import (
|
|
||||||
"database/sql"
|
|
||||||
_ "github.com/mattn/go-sqlite3"
|
|
||||||
)
|
|
||||||
|
|
||||||
func Init(databasePath string) (*sql.DB, error) {
|
|
||||||
db, err := sql.Open("sqlite3", databasePath)
|
|
||||||
|
|
||||||
if err != nil || db == nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
if err := createTableIfNotExists(db); err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return db, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func Close(db *sql.DB) {
|
|
||||||
err := db.Close()
|
|
||||||
if err != nil {
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func createTableIfNotExists(db *sql.DB) error {
|
|
||||||
if result, err := db.Exec(
|
|
||||||
"CREATE TABLE IF NOT EXISTS `Persons`(Id integer primary key autoincrement, Name text not null);",
|
|
||||||
); err != nil || result == nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
@ -1,4 +0,0 @@
|
|||||||
PORT=8000
|
|
||||||
PERSON_APP_URL=http://person-app:8080
|
|
||||||
TIMEOUT=15
|
|
||||||
DATABASE=./database.db
|
|
@ -1,14 +0,0 @@
|
|||||||
FROM golang:1.23
|
|
||||||
|
|
||||||
WORKDIR /app
|
|
||||||
|
|
||||||
COPY go.mod go.sum ./
|
|
||||||
RUN go mod download
|
|
||||||
|
|
||||||
COPY . .
|
|
||||||
|
|
||||||
RUN go build -o /bin/TaskApp
|
|
||||||
|
|
||||||
EXPOSE 8000
|
|
||||||
|
|
||||||
CMD ["/bin/TaskApp"]
|
|
@ -1,10 +0,0 @@
|
|||||||
module TaskApp
|
|
||||||
|
|
||||||
go 1.23.1
|
|
||||||
|
|
||||||
require (
|
|
||||||
github.com/gorilla/mux v1.8.1
|
|
||||||
github.com/mattn/go-sqlite3 v1.14.24
|
|
||||||
)
|
|
||||||
|
|
||||||
require github.com/joho/godotenv v1.5.1
|
|
@ -1,6 +0,0 @@
|
|||||||
github.com/gorilla/mux v1.8.1 h1:TuBL49tXwgrFYWhqrNgrUNEY92u81SPhu7sTdzQEiWY=
|
|
||||||
github.com/gorilla/mux v1.8.1/go.mod h1:AKf9I4AEqPTmMytcMc0KkNouC66V3BtZ4qD5fmWSiMQ=
|
|
||||||
github.com/joho/godotenv v1.5.1 h1:7eLL/+HRGLY0ldzfGMeQkb7vMd0as4CfYvUVzLqw0N0=
|
|
||||||
github.com/joho/godotenv v1.5.1/go.mod h1:f4LDr5Voq0i2e/R5DDNOoa2zzDfwtkZa6DnEwAbqwq4=
|
|
||||||
github.com/mattn/go-sqlite3 v1.14.24 h1:tpSp2G2KyMnnQu99ngJ47EIkWVmliIizyZBfPrBWDRM=
|
|
||||||
github.com/mattn/go-sqlite3 v1.14.24/go.mod h1:Uh1q+B4BYcTPb+yiD3kU8Ct7aC0hY9fxUwlHK0RXw+Y=
|
|
@ -1,177 +0,0 @@
|
|||||||
package handlers
|
|
||||||
|
|
||||||
import (
|
|
||||||
"TaskApp/httpClient"
|
|
||||||
"TaskApp/models"
|
|
||||||
"TaskApp/repository"
|
|
||||||
"encoding/json"
|
|
||||||
"fmt"
|
|
||||||
"github.com/gorilla/mux"
|
|
||||||
"net/http"
|
|
||||||
"strconv"
|
|
||||||
)
|
|
||||||
|
|
||||||
func InitRoutes(r *mux.Router, rep repository.TaskRepository, cln httpClient.Client) {
|
|
||||||
r.HandleFunc("/", GetTasks(rep)).Methods("GET")
|
|
||||||
r.HandleFunc("/{id:[0-9]+}", GetTaskById(rep)).Methods("GET")
|
|
||||||
r.HandleFunc("/", CreateTask(rep, cln)).Methods("POST")
|
|
||||||
r.HandleFunc("/{id:[0-9]+}", UpdateTask(rep)).Methods("PUT")
|
|
||||||
r.HandleFunc("/{id:[0-9]+}", DeleteTask(rep)).Methods("DELETE")
|
|
||||||
r.HandleFunc("/f/{id:[0-9]+}", GetPersonTasks(rep)).Methods("GET")
|
|
||||||
}
|
|
||||||
|
|
||||||
func GetTasks(rep repository.TaskRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
tasks, err := rep.GetAllTasks()
|
|
||||||
if err != nil {
|
|
||||||
w.WriteHeader(http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
err = json.NewEncoder(w).Encode(tasks)
|
|
||||||
if err != nil {
|
|
||||||
w.WriteHeader(http.StatusInternalServerError)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func GetTaskById(rep repository.TaskRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
person, err := rep.GetTaskById(id)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
err = json.NewEncoder(w).Encode(person)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func GetPersonTasks(rep repository.TaskRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusBadRequest)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
tasks, err := rep.GetUserTasks(id)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
err = json.NewEncoder(w).Encode(tasks)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func CreateTask(rep repository.TaskRepository, cln httpClient.Client) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
|
|
||||||
var task *models.TaskCreate
|
|
||||||
|
|
||||||
err := json.NewDecoder(r.Body).Decode(&task)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
if &task.Name == nil || &task.PersonId == nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
person, err := cln.GetPerson(task.PersonId)
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
fmt.Println(err)
|
|
||||||
http.Error(w, "Connection to PersonApp is confused.", http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
if person == nil {
|
|
||||||
http.Error(w, fmt.Sprintf("Person with id=%d is't founded.", person.Id), http.StatusBadGateway)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
newTask, err := rep.CreateTask(*task)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
w.WriteHeader(http.StatusCreated)
|
|
||||||
err = json.NewEncoder(w).Encode(newTask)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func UpdateTask(rep repository.TaskRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusBadRequest)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
var task *models.TaskCreate
|
|
||||||
|
|
||||||
err = json.NewDecoder(r.Body).Decode(&task)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
newTask, err := rep.UpdateTask(models.Task{Id: id, Name: task.Name, Date: task.Date})
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
err = json.NewEncoder(w).Encode(newTask)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func DeleteTask(rep repository.TaskRepository) http.HandlerFunc {
|
|
||||||
return func(w http.ResponseWriter, r *http.Request) {
|
|
||||||
w.Header().Set("Content-Type", "application/json")
|
|
||||||
|
|
||||||
id, err := strconv.Atoi(mux.Vars(r)["id"])
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusBadRequest)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
|
|
||||||
err = rep.DeleteTask(id)
|
|
||||||
if err != nil {
|
|
||||||
http.Error(w, err.Error(), http.StatusInternalServerError)
|
|
||||||
return
|
|
||||||
}
|
|
||||||
w.WriteHeader(http.StatusOK)
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,73 +0,0 @@
|
|||||||
package httpClient
|
|
||||||
|
|
||||||
import (
|
|
||||||
"TaskApp/models"
|
|
||||||
"encoding/json"
|
|
||||||
"fmt"
|
|
||||||
"io"
|
|
||||||
"log"
|
|
||||||
"net/http"
|
|
||||||
"time"
|
|
||||||
)
|
|
||||||
|
|
||||||
type Client interface {
|
|
||||||
GetPerson(id int) (*models.Person, error)
|
|
||||||
TestConnection() (bool, error)
|
|
||||||
}
|
|
||||||
|
|
||||||
type client struct {
|
|
||||||
BaseUrl string
|
|
||||||
Timeout time.Duration
|
|
||||||
}
|
|
||||||
|
|
||||||
func (c *client) TestConnection() (bool, error) {
|
|
||||||
client := &http.Client{Timeout: c.Timeout}
|
|
||||||
url := fmt.Sprintf("%s/", c.BaseUrl)
|
|
||||||
resp, err := client.Get(url)
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
return false, err
|
|
||||||
}
|
|
||||||
|
|
||||||
defer func(Body io.ReadCloser) {
|
|
||||||
err := Body.Close()
|
|
||||||
if err != nil {
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}(resp.Body)
|
|
||||||
|
|
||||||
if resp.StatusCode != http.StatusOK {
|
|
||||||
return false, fmt.Errorf("bad status code: %d", resp.StatusCode)
|
|
||||||
}
|
|
||||||
return true, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (c *client) GetPerson(id int) (*models.Person, error) {
|
|
||||||
client := &http.Client{Timeout: c.Timeout * time.Second}
|
|
||||||
url := fmt.Sprintf("%s/%d", c.BaseUrl, id)
|
|
||||||
|
|
||||||
resp, err := client.Get(url)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
defer func(Body io.ReadCloser) {
|
|
||||||
err := Body.Close()
|
|
||||||
if err != nil {
|
|
||||||
|
|
||||||
}
|
|
||||||
}(resp.Body)
|
|
||||||
|
|
||||||
body, _ := io.ReadAll(resp.Body)
|
|
||||||
|
|
||||||
var person models.Person
|
|
||||||
if err := json.Unmarshal(body, &person); err != nil {
|
|
||||||
log.Printf("Unmarshal error: %s", err)
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return &person, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func NewClient(baseUrl string, timeout time.Duration) Client {
|
|
||||||
return &client{BaseUrl: baseUrl, Timeout: timeout}
|
|
||||||
}
|
|
@ -1,37 +0,0 @@
|
|||||||
GET http://localhost/task-app/
|
|
||||||
Accept: application/json
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
GET http://localhost/task-app/4
|
|
||||||
Accept: application/json
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
POST http://localhost/task-app/
|
|
||||||
Accept: application/json
|
|
||||||
Content-Type: application/json
|
|
||||||
|
|
||||||
{
|
|
||||||
"name": "TEST2",
|
|
||||||
"person_id": 1,
|
|
||||||
"date": "19.02.2202"
|
|
||||||
}
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
PUT http://localhost/task-app/4
|
|
||||||
Accept: application/json
|
|
||||||
Content-Type: application/json
|
|
||||||
|
|
||||||
{
|
|
||||||
"name": "TEST5",
|
|
||||||
"date": "19.02.2202"
|
|
||||||
}
|
|
||||||
|
|
||||||
###
|
|
||||||
|
|
||||||
DELETE http://localhost/task-app/4
|
|
||||||
Accept: application/json
|
|
||||||
|
|
||||||
###
|
|
@ -1,47 +0,0 @@
|
|||||||
package main
|
|
||||||
|
|
||||||
import (
|
|
||||||
"TaskApp/handlers"
|
|
||||||
"TaskApp/httpClient"
|
|
||||||
"TaskApp/repository"
|
|
||||||
"TaskApp/storage"
|
|
||||||
"github.com/gorilla/mux"
|
|
||||||
"github.com/joho/godotenv"
|
|
||||||
"net/http"
|
|
||||||
"os"
|
|
||||||
"strconv"
|
|
||||||
"time"
|
|
||||||
)
|
|
||||||
|
|
||||||
func main() {
|
|
||||||
err := godotenv.Load(".env")
|
|
||||||
if err != nil {
|
|
||||||
panic("Error loading .env file")
|
|
||||||
}
|
|
||||||
|
|
||||||
url := os.Getenv("PERSON_APP_URL")
|
|
||||||
port := os.Getenv("PORT")
|
|
||||||
databasePath := os.Getenv("DATABASE")
|
|
||||||
timeout, err := strconv.Atoi(os.Getenv("TIMEOUT"))
|
|
||||||
|
|
||||||
if err != nil {
|
|
||||||
panic("Error converting timeout to int")
|
|
||||||
}
|
|
||||||
|
|
||||||
database, err := storage.Init(databasePath)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
cln := httpClient.NewClient(url, time.Duration(timeout))
|
|
||||||
rep := repository.NewTaskRepository(database)
|
|
||||||
router := mux.NewRouter()
|
|
||||||
handlers.InitRoutes(router, rep, cln)
|
|
||||||
|
|
||||||
err = http.ListenAndServe(":"+port, router)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
storage.Close(database)
|
|
||||||
}
|
|
@ -1,24 +0,0 @@
|
|||||||
package models
|
|
||||||
|
|
||||||
type Person struct {
|
|
||||||
Id int `json:"id"`
|
|
||||||
Name string `json:"name"`
|
|
||||||
Tasks []Task `json:"tasks"`
|
|
||||||
}
|
|
||||||
|
|
||||||
type PersonCreate struct {
|
|
||||||
Name string `json:"name"`
|
|
||||||
}
|
|
||||||
|
|
||||||
type Task struct {
|
|
||||||
Id int `json:"id"`
|
|
||||||
PersonId int `json:"person_id"`
|
|
||||||
Name string `json:"name"`
|
|
||||||
Date string `json:"date"`
|
|
||||||
}
|
|
||||||
|
|
||||||
type TaskCreate struct {
|
|
||||||
PersonId int `json:"person_id"`
|
|
||||||
Name string `json:"name"`
|
|
||||||
Date string `json:"date"`
|
|
||||||
}
|
|
@ -1,121 +0,0 @@
|
|||||||
package repository
|
|
||||||
|
|
||||||
import (
|
|
||||||
"TaskApp/models"
|
|
||||||
"database/sql"
|
|
||||||
)
|
|
||||||
|
|
||||||
type TaskRepository interface {
|
|
||||||
GetAllTasks() ([]models.Task, error)
|
|
||||||
GetTaskById(id int) (*models.Task, error)
|
|
||||||
GetUserTasks(id int) ([]models.Task, error)
|
|
||||||
CreateTask(task models.TaskCreate) (*models.Task, error)
|
|
||||||
UpdateTask(task models.Task) (*models.Task, error)
|
|
||||||
DeleteTask(id int) error
|
|
||||||
}
|
|
||||||
|
|
||||||
type taskRepository struct {
|
|
||||||
DB *sql.DB
|
|
||||||
}
|
|
||||||
|
|
||||||
func (t taskRepository) GetUserTasks(id int) ([]models.Task, error) {
|
|
||||||
rows, err := t.DB.Query("select * from Tasks where PersonId = ?", id)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
defer func(rows *sql.Rows) {
|
|
||||||
err := rows.Close()
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
}(rows)
|
|
||||||
|
|
||||||
var tasks []models.Task
|
|
||||||
|
|
||||||
for rows.Next() {
|
|
||||||
p := models.Task{}
|
|
||||||
err := rows.Scan(&p.Id, &p.Name, &p.PersonId, &p.Date)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
tasks = append(tasks, p)
|
|
||||||
}
|
|
||||||
|
|
||||||
return tasks, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (t taskRepository) GetAllTasks() ([]models.Task, error) {
|
|
||||||
rows, err := t.DB.Query("select * from Tasks")
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
defer func(rows *sql.Rows) {
|
|
||||||
err := rows.Close()
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
}(rows)
|
|
||||||
|
|
||||||
var tasks []models.Task
|
|
||||||
|
|
||||||
for rows.Next() {
|
|
||||||
p := models.Task{}
|
|
||||||
err := rows.Scan(&p.Id, &p.Name, &p.PersonId, &p.Date)
|
|
||||||
if err != nil {
|
|
||||||
panic(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
tasks = append(tasks, p)
|
|
||||||
}
|
|
||||||
|
|
||||||
return tasks, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (t taskRepository) GetTaskById(id int) (*models.Task, error) {
|
|
||||||
row := t.DB.QueryRow("select * from Tasks where id=?", id)
|
|
||||||
|
|
||||||
task := models.Task{}
|
|
||||||
err := row.Scan(&task.Id, &task.Name, &task.PersonId, &task.Date)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return &task, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (t taskRepository) CreateTask(task models.TaskCreate) (*models.Task, error) {
|
|
||||||
_, err := t.DB.Exec("INSERT INTO Tasks(Name, PersonId, Date) VALUES (?, ?, ?)", task.Name, task.PersonId, task.Date)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return &models.Task{
|
|
||||||
Id: 0,
|
|
||||||
PersonId: task.PersonId,
|
|
||||||
Name: task.Name,
|
|
||||||
Date: task.Date,
|
|
||||||
}, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (t taskRepository) UpdateTask(task models.Task) (*models.Task, error) {
|
|
||||||
_, err := t.DB.Exec("UPDATE Tasks SET name = ?, date = ? WHERE id = ?", task.Name, task.Date, task.Id)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
return &task, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (t taskRepository) DeleteTask(id int) error {
|
|
||||||
_, err := t.DB.Exec("DELETE FROM Tasks WHERE id = ?", id)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func NewTaskRepository(db *sql.DB) TaskRepository {
|
|
||||||
return &taskRepository{DB: db}
|
|
||||||
}
|
|
@ -1,36 +0,0 @@
|
|||||||
package storage
|
|
||||||
|
|
||||||
import (
|
|
||||||
"database/sql"
|
|
||||||
_ "github.com/mattn/go-sqlite3"
|
|
||||||
)
|
|
||||||
|
|
||||||
func Init(databasePath string) (*sql.DB, error) {
|
|
||||||
db, err := sql.Open("sqlite3", databasePath)
|
|
||||||
|
|
||||||
if err != nil || db == nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
if err := createTableIfNotExists(db); err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
|
|
||||||
return db, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func Close(db *sql.DB) {
|
|
||||||
err := db.Close()
|
|
||||||
if err != nil {
|
|
||||||
return
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func createTableIfNotExists(db *sql.DB) error {
|
|
||||||
if result, err := db.Exec(
|
|
||||||
"CREATE TABLE IF NOT EXISTS `Tasks`(Id integer primary key autoincrement, Name text not null, PersonId integer not null, Date text not null);",
|
|
||||||
); err != nil || result == nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
@ -1,34 +0,0 @@
|
|||||||
services:
|
|
||||||
person-app:
|
|
||||||
build:
|
|
||||||
context: ./PersonApp
|
|
||||||
dockerfile: Dockerfile
|
|
||||||
networks:
|
|
||||||
- network
|
|
||||||
ports:
|
|
||||||
- "8080:8080"
|
|
||||||
|
|
||||||
task-app:
|
|
||||||
build:
|
|
||||||
context: ./TaskApp
|
|
||||||
dockerfile: Dockerfile
|
|
||||||
networks:
|
|
||||||
- network
|
|
||||||
ports:
|
|
||||||
- "8000:8000"
|
|
||||||
|
|
||||||
nginx:
|
|
||||||
image: nginx
|
|
||||||
ports:
|
|
||||||
- "80:80"
|
|
||||||
volumes:
|
|
||||||
- ./nginx.conf:/etc/nginx/nginx.conf
|
|
||||||
networks:
|
|
||||||
- network
|
|
||||||
depends_on:
|
|
||||||
- person-app
|
|
||||||
- task-app
|
|
||||||
|
|
||||||
networks:
|
|
||||||
network:
|
|
||||||
driver: bridge
|
|
@ -1,59 +0,0 @@
|
|||||||
events {
|
|
||||||
worker_connections 1024;
|
|
||||||
}
|
|
||||||
|
|
||||||
http {
|
|
||||||
server {
|
|
||||||
listen 80;
|
|
||||||
server_name localhost;
|
|
||||||
|
|
||||||
location /person-app/ {
|
|
||||||
proxy_pass http://person-app:8080/;
|
|
||||||
proxy_set_header Host $host;
|
|
||||||
proxy_set_header X-Real-IP $remote_addr;
|
|
||||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
|
||||||
proxy_set_header X-Forwarded-Proto $scheme;
|
|
||||||
add_header 'Access-Control-Allow-Origin' '*';
|
|
||||||
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
|
|
||||||
add_header 'Access-Control-Allow-Headers' 'Origin, Content-Type, Accept, Authorization';
|
|
||||||
|
|
||||||
}
|
|
||||||
|
|
||||||
location /task-app/ {
|
|
||||||
proxy_pass http://task-app:8000/;
|
|
||||||
proxy_set_header Host $host;
|
|
||||||
proxy_set_header X-Real-IP $remote_addr;
|
|
||||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
|
||||||
proxy_set_header X-Forwarded-Proto $scheme;
|
|
||||||
add_header 'Access-Control-Allow-Origin' '*';
|
|
||||||
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
|
|
||||||
add_header 'Access-Control-Allow-Headers' 'Origin, Content-Type, Accept, Authorization';
|
|
||||||
}
|
|
||||||
|
|
||||||
# Прокси для Swagger (Stream-сервис)
|
|
||||||
#location /stream-service/swagger/ {
|
|
||||||
# proxy_pass http://stream-service:8000/swagger/;
|
|
||||||
# proxy_set_header Host $host;
|
|
||||||
# proxy_set_header X-Real-IP $remote_addr;
|
|
||||||
# proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
|
||||||
# proxy_set_header X-Forwarded-Proto $scheme;
|
|
||||||
#}
|
|
||||||
|
|
||||||
# Прокси для Swagger (Message-сервис)
|
|
||||||
#location /message-service/swagger/ {
|
|
||||||
# proxy_pass http://message-service:8080/swagger/;
|
|
||||||
# proxy_set_header Host $host;
|
|
||||||
# proxy_set_header X-Real-IP $remote_addr;
|
|
||||||
# proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
|
||||||
# proxy_set_header X-Forwarded-Proto $scheme;
|
|
||||||
#}
|
|
||||||
|
|
||||||
#location /stream-service/doc.json {
|
|
||||||
# proxy_pass http://stream-service:8000/doc.json;
|
|
||||||
#}
|
|
||||||
|
|
||||||
#location /message-service/doc.json {
|
|
||||||
# proxy_pass http://message-service:8080/doc.json;
|
|
||||||
#}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,34 +0,0 @@
|
|||||||
# Лабораторная работа №4: Работа с брокером сообщений (RabbitMQ)
|
|
||||||
|
|
||||||
## Цель
|
|
||||||
|
|
||||||
Изучение проектирования приложений с использованием брокера сообщений RabbitMQ.
|
|
||||||
|
|
||||||
---
|
|
||||||
|
|
||||||
## Задачи
|
|
||||||
|
|
||||||
> 1. **Установить RabbitMQ**
|
|
||||||
Установите RabbitMQ на локальный компьютер (или используйте Docker).
|
|
||||||
>- [Скачивание RabbitMQ](https://www.rabbitmq.com/download.html)
|
|
||||||
>- [Релизы RabbitMQ](https://github.com/rabbitmq/rabbitmq-server/releases/)
|
|
||||||
>- **Пройти уроки RabbitMQ**
|
|
||||||
>- Сделайте скриншоты, показывающие запуск `producer` и `consumer` и передачу сообщений.
|
|
||||||
|
|
||||||
---
|
|
||||||
## Первый урок
|
|
||||||
> ![img.png](static/img1.png)
|
|
||||||
|
|
||||||
---
|
|
||||||
## Второй урок
|
|
||||||
>![img.png](static/img2.png)
|
|
||||||
>![img_1.png](static/img3.png)
|
|
||||||
|
|
||||||
---
|
|
||||||
## Третий урок
|
|
||||||
> ![img.png](static/img4.png)
|
|
||||||
|
|
||||||
---
|
|
||||||
## Задача
|
|
||||||
>![img.png](static/img5.png)
|
|
||||||
> ![img.png](static/img.png)
|
|
@ -1,17 +0,0 @@
|
|||||||
version: "3.2"
|
|
||||||
services:
|
|
||||||
rabbitmq:
|
|
||||||
image: rabbitmq:3-management-alpine
|
|
||||||
container_name: 'rabbitmq'
|
|
||||||
ports:
|
|
||||||
- "5672:5672"
|
|
||||||
- "15672:15672"
|
|
||||||
volumes:
|
|
||||||
- ~/.docker-conf/rabbitmq/data/:/var/lib/rabbitmq/
|
|
||||||
- ~/.docker-conf/rabbitmq/log/:/var/log/rabbitmq
|
|
||||||
networks:
|
|
||||||
- rabbitmq_go_net
|
|
||||||
|
|
||||||
networks:
|
|
||||||
rabbitmq_go_net:
|
|
||||||
driver: bridge
|
|
@ -1,47 +0,0 @@
|
|||||||
from datetime import datetime
|
|
||||||
import random
|
|
||||||
import threading
|
|
||||||
|
|
||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
_alphabet = [chr(i) for i in range(97, 123)]
|
|
||||||
|
|
||||||
|
|
||||||
def run_every_n_seconds(seconds, action, *args):
|
|
||||||
threading.Timer(seconds, run_every_n_seconds, [seconds, action] + list(args)).start()
|
|
||||||
action(*args)
|
|
||||||
|
|
||||||
|
|
||||||
def generate_message():
|
|
||||||
now = datetime.now()
|
|
||||||
current_time = now.strftime("%H:%M:%S")
|
|
||||||
return f"[{current_time}] " + "".join(random.choices(_alphabet, k=random.randint(1, 10)))
|
|
||||||
|
|
||||||
|
|
||||||
def send_message(channel_local):
|
|
||||||
message = generate_message()
|
|
||||||
channel_local.basic_publish(
|
|
||||||
exchange='vk_messages',
|
|
||||||
routing_key='vk_messages',
|
|
||||||
body=message,
|
|
||||||
properties=pika.BasicProperties(
|
|
||||||
delivery_mode=pika.DeliveryMode.Persistent
|
|
||||||
))
|
|
||||||
print(f"[vkAuthor] Sent {message}")
|
|
||||||
|
|
||||||
|
|
||||||
def main(conn: pika.BlockingConnection):
|
|
||||||
channel = conn.channel()
|
|
||||||
channel.exchange_declare(exchange='vk_messages', exchange_type='fanout')
|
|
||||||
run_every_n_seconds(1, send_message, channel)
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
|
|
||||||
|
|
||||||
try:
|
|
||||||
main(connection)
|
|
||||||
except KeyboardInterrupt:
|
|
||||||
connection.close()
|
|
||||||
sys.exit(0)
|
|
@ -1,44 +0,0 @@
|
|||||||
import sys
|
|
||||||
from datetime import datetime
|
|
||||||
|
|
||||||
import pika
|
|
||||||
|
|
||||||
_QUEUE_NAME = "vk_messages_queue"
|
|
||||||
_EXCHANGE_NAME = "vk_messages"
|
|
||||||
|
|
||||||
|
|
||||||
def main():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(
|
|
||||||
exchange=_EXCHANGE_NAME,
|
|
||||||
exchange_type='fanout'
|
|
||||||
)
|
|
||||||
|
|
||||||
channel.queue_declare(queue=_QUEUE_NAME, exclusive=True)
|
|
||||||
channel.queue_bind(exchange=_EXCHANGE_NAME, queue=_QUEUE_NAME)
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
now = datetime.now()
|
|
||||||
current_time = now.strftime("%H:%M:%S")
|
|
||||||
|
|
||||||
print(f"[vkReader] Received [{str(body)}] in [{current_time}]")
|
|
||||||
ch.basic_ack(delivery_tag=method.delivery_tag)
|
|
||||||
|
|
||||||
channel.basic_consume(
|
|
||||||
queue=_QUEUE_NAME,
|
|
||||||
on_message_callback=callback,
|
|
||||||
auto_ack=False
|
|
||||||
)
|
|
||||||
|
|
||||||
print('[*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
try:
|
|
||||||
main()
|
|
||||||
except KeyboardInterrupt:
|
|
||||||
print('Interrupted')
|
|
||||||
sys.exit(0)
|
|
@ -1,47 +0,0 @@
|
|||||||
import time
|
|
||||||
import random
|
|
||||||
from datetime import datetime
|
|
||||||
|
|
||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
_QUEUE_NAME = "vk_messages_queue_slow"
|
|
||||||
_EXCHANGE_NAME = "vk_messages"
|
|
||||||
|
|
||||||
|
|
||||||
def main():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(
|
|
||||||
exchange=_EXCHANGE_NAME,
|
|
||||||
exchange_type='fanout'
|
|
||||||
)
|
|
||||||
channel.queue_declare(queue=_QUEUE_NAME, exclusive=True)
|
|
||||||
channel.queue_bind(exchange=_EXCHANGE_NAME, queue=_QUEUE_NAME)
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
now = datetime.now()
|
|
||||||
current_time = now.strftime("%H:%M:%S")
|
|
||||||
|
|
||||||
print(f"[vkSlowReader] Received [{str(body)}] in [{current_time}]")
|
|
||||||
read_time = random.randint(2, 5)
|
|
||||||
time.sleep(read_time)
|
|
||||||
ch.basic_ack(delivery_tag=method.delivery_tag)
|
|
||||||
|
|
||||||
channel.basic_consume(
|
|
||||||
queue=_QUEUE_NAME,
|
|
||||||
on_message_callback=callback,
|
|
||||||
auto_ack=False
|
|
||||||
)
|
|
||||||
|
|
||||||
print('[*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
try:
|
|
||||||
main()
|
|
||||||
except KeyboardInterrupt:
|
|
||||||
print('Interrupted')
|
|
||||||
sys.exit(0)
|
|
@ -1,25 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
|
|
||||||
def main():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='hello')
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] Received {body}")
|
|
||||||
|
|
||||||
channel.basic_consume(queue='hello', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
try:
|
|
||||||
main()
|
|
||||||
except KeyboardInterrupt:
|
|
||||||
print('Interrupted')
|
|
||||||
sys.exit(0)
|
|
@ -1,11 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='hello')
|
|
||||||
|
|
||||||
channel.basic_publish(exchange='', routing_key='hello', body='Hello World!')
|
|
||||||
print(" [x] Sent 'Hello World!'")
|
|
||||||
connection.close()
|
|
@ -1,19 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='task_queue', durable=True)
|
|
||||||
|
|
||||||
message = ' '.join(sys.argv[1:]) or "Hello World!"
|
|
||||||
channel.basic_publish(
|
|
||||||
exchange='',
|
|
||||||
routing_key='task_queue',
|
|
||||||
body=message,
|
|
||||||
properties=pika.BasicProperties(
|
|
||||||
delivery_mode=pika.DeliveryMode.Persistent
|
|
||||||
))
|
|
||||||
print(f" [x] Sent {message}")
|
|
||||||
connection.close()
|
|
@ -1,22 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='task_queue', durable=True)
|
|
||||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] Received {body.decode()}")
|
|
||||||
time.sleep(body.count(b'.'))
|
|
||||||
print(" [x] Done")
|
|
||||||
ch.basic_ack(delivery_tag=method.delivery_tag)
|
|
||||||
|
|
||||||
|
|
||||||
channel.basic_qos(prefetch_count=1)
|
|
||||||
channel.basic_consume(queue='task_queue', on_message_callback=callback)
|
|
||||||
|
|
||||||
channel.start_consuming()
|
|
Before Width: | Height: | Size: 35 KiB |
Before Width: | Height: | Size: 37 KiB |
Before Width: | Height: | Size: 14 KiB |
Before Width: | Height: | Size: 24 KiB |
Before Width: | Height: | Size: 29 KiB |
Before Width: | Height: | Size: 204 KiB |
@ -1,13 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
|
||||||
|
|
||||||
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
|
|
||||||
channel.basic_publish(exchange='logs', routing_key='', body=message)
|
|
||||||
print(f" [x] Sent {message}")
|
|
||||||
connection.close()
|
|
@ -1,24 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost'))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
|
||||||
|
|
||||||
result = channel.queue_declare(queue='', exclusive=True)
|
|
||||||
queue_name = result.method.queue
|
|
||||||
|
|
||||||
channel.queue_bind(exchange='logs', queue=queue_name)
|
|
||||||
|
|
||||||
print(' [*] Waiting for logs. To exit press CTRL+C')
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] {body}")
|
|
||||||
|
|
||||||
|
|
||||||
channel.basic_consume(
|
|
||||||
queue=queue_name, on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
channel.start_consuming()
|
|
@ -1,34 +0,0 @@
|
|||||||
# Богданов Дмитрий ПИбд-42
|
|
||||||
# Лабораторная работа №4
|
|
||||||
|
|
||||||
|
|
||||||
## Предметная область:
|
|
||||||
Автоматизация работы теплицы
|
|
||||||
|
|
||||||
## Результаты выполнения туториалов:
|
|
||||||
|
|
||||||
- Первый туториал:
|
|
||||||
![изображение 1](./images/tut1.png)
|
|
||||||
|
|
||||||
- Второй туториал:
|
|
||||||
![изображение 2](./images/tut2.png)
|
|
||||||
|
|
||||||
- Третий туториал:
|
|
||||||
![изображение 3](./images/tut3.png)
|
|
||||||
|
|
||||||
|
|
||||||
## Данные из RabbitMQ:
|
|
||||||
|
|
||||||
![изображение 1](./images/rmq1.png)
|
|
||||||
![изображение 2](./images/rmq2.png)
|
|
||||||
![изображение 3](./images/rmq3.png)
|
|
||||||
![изображение 3](./images/rmq4.png)
|
|
||||||
|
|
||||||
### Вывод:
|
|
||||||
Из-за моментальной обработки сообщений в Consumer2, его очередь никогда не заполняется.
|
|
||||||
Consumer1 же тратит на обработку 2 секунды, из-за чего соответствующая очередь существенно заполняется при одном
|
|
||||||
запущенном экземпляре.
|
|
||||||
При нескольких запущенных экземплярах Consumer1 очередь заполняется существенно медленнее, и перестаёт заполняться совсем при определенном кол-ве запущенных экземпляров.
|
|
||||||
|
|
||||||
|
|
||||||
## [Видео](https://drive.google.com/file/d/1KWHHYWiK8OX48OfhDnEKDtMz-Umfs0uj/view?usp=sharing)
|
|
@ -1,27 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f'Receiver 1: получено сообщение. {body.decode()}')
|
|
||||||
|
|
||||||
time.sleep(3)
|
|
||||||
|
|
||||||
print('Receiver 1 закончил обработку')
|
|
||||||
|
|
||||||
|
|
||||||
def consume_events_1():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='receiver1_queue')
|
|
||||||
channel.queue_bind(exchange='greenhouse_events', queue='receiver1_queue')
|
|
||||||
|
|
||||||
channel.basic_consume(queue='receiver1_queue', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print('Ожидание сообщения...')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
consume_events_1()
|
|
@ -1,24 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f'Receiver 2: получено сообщение. {body.decode()}')
|
|
||||||
|
|
||||||
print('Receiver 2 закончил обработку')
|
|
||||||
|
|
||||||
|
|
||||||
def consume_events_2():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='receiver2_queue')
|
|
||||||
channel.queue_bind(exchange='greenhouse_events', queue='receiver2_queue')
|
|
||||||
|
|
||||||
channel.basic_consume(queue='receiver2_queue', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print('Ожидание сообщения...')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
consume_events_2()
|
|
@ -1,25 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
def publish_events():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='greenhouse_events', exchange_type='fanout')
|
|
||||||
|
|
||||||
events = [
|
|
||||||
"Влажность превысила верхнюю границу",
|
|
||||||
"Влажность упала за нижнюю границу",
|
|
||||||
"Полив начат",
|
|
||||||
"Полив остановлен"
|
|
||||||
]
|
|
||||||
|
|
||||||
while True:
|
|
||||||
event = events[int(time.time()) % len(events)]
|
|
||||||
channel.basic_publish(exchange='greenhouse_events', routing_key='', body=event)
|
|
||||||
print(f'Отправлено: {event}')
|
|
||||||
time.sleep(1)
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
publish_events()
|
|
@ -1,25 +0,0 @@
|
|||||||
import pika, sys, os
|
|
||||||
|
|
||||||
def main():
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='hello')
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] Received {body}")
|
|
||||||
|
|
||||||
channel.basic_consume(queue='hello', on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
channel.start_consuming()
|
|
||||||
|
|
||||||
if __name__ == '__main__':
|
|
||||||
try:
|
|
||||||
main()
|
|
||||||
except KeyboardInterrupt:
|
|
||||||
print('Interrupted')
|
|
||||||
try:
|
|
||||||
sys.exit(0)
|
|
||||||
except SystemExit:
|
|
||||||
os._exit(0)
|
|
@ -1,13 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare('hello')
|
|
||||||
|
|
||||||
channel.basic_publish(exchange='',
|
|
||||||
routing_key='hello',
|
|
||||||
body='Hello world!')
|
|
||||||
print(" [x] Sent 'Hello world!'")
|
|
||||||
|
|
||||||
connection.close()
|
|
@ -1,19 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='task_queue', durable=True)
|
|
||||||
|
|
||||||
message = ' '.join(sys.argv[1:]) or "Hello World!"
|
|
||||||
channel.basic_publish(
|
|
||||||
exchange='',
|
|
||||||
routing_key='task_queue',
|
|
||||||
body=message,
|
|
||||||
properties=pika.BasicProperties(
|
|
||||||
delivery_mode=pika.DeliveryMode.Persistent
|
|
||||||
))
|
|
||||||
print(f" [x] Sent {message}")
|
|
||||||
connection.close()
|
|
@ -1,22 +0,0 @@
|
|||||||
import pika
|
|
||||||
import time
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.queue_declare(queue='task_queue', durable=True)
|
|
||||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
|
||||||
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] Received {body.decode()}")
|
|
||||||
time.sleep(body.count(b'.'))
|
|
||||||
print(" [x] Done")
|
|
||||||
ch.basic_ack(delivery_tag=method.delivery_tag)
|
|
||||||
|
|
||||||
|
|
||||||
channel.basic_qos(prefetch_count=1)
|
|
||||||
channel.basic_consume(queue='task_queue', on_message_callback=callback)
|
|
||||||
|
|
||||||
channel.start_consuming()
|
|
@ -1,13 +0,0 @@
|
|||||||
import pika
|
|
||||||
import sys
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
|
||||||
|
|
||||||
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
|
|
||||||
channel.basic_publish(exchange='logs', routing_key='', body=message)
|
|
||||||
print(f" [x] Sent {message}")
|
|
||||||
connection.close()
|
|
@ -1,22 +0,0 @@
|
|||||||
import pika
|
|
||||||
|
|
||||||
connection = pika.BlockingConnection(
|
|
||||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
|
||||||
channel = connection.channel()
|
|
||||||
|
|
||||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
|
||||||
|
|
||||||
result = channel.queue_declare(queue='', exclusive=True)
|
|
||||||
queue_name = result.method.queue
|
|
||||||
|
|
||||||
channel.queue_bind(exchange='logs', queue=queue_name)
|
|
||||||
|
|
||||||
print(' [*] Waiting for logs. To exit press CTRL+C')
|
|
||||||
|
|
||||||
def callback(ch, method, properties, body):
|
|
||||||
print(f" [x] {body}")
|
|
||||||
|
|
||||||
channel.basic_consume(
|
|
||||||
queue=queue_name, on_message_callback=callback, auto_ack=True)
|
|
||||||
|
|
||||||
channel.start_consuming()
|
|
@ -1,12 +0,0 @@
|
|||||||
version: '3.8'
|
|
||||||
|
|
||||||
services:
|
|
||||||
rabbitmq:
|
|
||||||
image: rabbitmq:3-management
|
|
||||||
container_name: rabbitmq
|
|
||||||
environment:
|
|
||||||
RABBITMQ_DEFAULT_USER: user
|
|
||||||
RABBITMQ_DEFAULT_PASS: password
|
|
||||||
ports:
|
|
||||||
- "5672:5672"
|
|
||||||
- "15672:15672"
|
|
Before Width: | Height: | Size: 38 KiB |
Before Width: | Height: | Size: 33 KiB |
Before Width: | Height: | Size: 28 KiB |
Before Width: | Height: | Size: 29 KiB |
Before Width: | Height: | Size: 27 KiB |
Before Width: | Height: | Size: 28 KiB |
Before Width: | Height: | Size: 27 KiB |
@ -1,88 +0,0 @@
|
|||||||
import random as rnd
|
|
||||||
import threading
|
|
||||||
import time
|
|
||||||
from multiprocessing import Pool
|
|
||||||
|
|
||||||
def generateSquareMatrix(size):
|
|
||||||
return [[rnd.randint(0, 100) for i in range(size)] for j in range(size)]
|
|
||||||
|
|
||||||
def printMatrix(matrix):
|
|
||||||
for row in matrix:
|
|
||||||
print(*row, sep="\t")
|
|
||||||
|
|
||||||
|
|
||||||
# Перемножение без использования потоков
|
|
||||||
def matrixMultiplyStandard(matrix1, matrix2):
|
|
||||||
l1 = len(matrix1)
|
|
||||||
l2 = len(matrix2)
|
|
||||||
global result_matrix
|
|
||||||
result = result_matrix
|
|
||||||
for i in range(l1):
|
|
||||||
for j in range(l2):
|
|
||||||
for k in range(l2):
|
|
||||||
result[i][j] += matrix1[i][k] * matrix2[k][j]
|
|
||||||
|
|
||||||
return result
|
|
||||||
|
|
||||||
result_matrix = [[0 for i in range(500)] for j in range(500)]
|
|
||||||
|
|
||||||
# Перемножение в отдельном потоке
|
|
||||||
def matrixMultiplySingleThread(args):
|
|
||||||
matrix1, matrix2, start_i, end_i = args
|
|
||||||
global result_matrix
|
|
||||||
|
|
||||||
result = result_matrix
|
|
||||||
|
|
||||||
for i in range(start_i, end_i):
|
|
||||||
for j in range(len(matrix2[0])):
|
|
||||||
for k in range(len(matrix2)):
|
|
||||||
result[i][j] += matrix1[i - start_i][k] * matrix2[k][j]
|
|
||||||
|
|
||||||
# Параллельное перемножение, использует ф-ю выше для каждого потока
|
|
||||||
def matrixMultiplyWithThreads(matrix1, matrix2, thread_count):
|
|
||||||
l1 = len(matrix1)
|
|
||||||
l2 = len(matrix2)
|
|
||||||
|
|
||||||
# Кол-во строк на последний поток, если деление по потокам будет неточным
|
|
||||||
last_rows_count = 0
|
|
||||||
|
|
||||||
if l1 % thread_count == 0:
|
|
||||||
rows_per_thread = l1 // thread_count
|
|
||||||
else:
|
|
||||||
rows_per_thread = l1 // thread_count
|
|
||||||
last_rows_count = l1 % thread_count
|
|
||||||
|
|
||||||
for i in range(thread_count):
|
|
||||||
start_i = i * rows_per_thread
|
|
||||||
|
|
||||||
if (i - 1) == thread_count and last_rows_count > 0:
|
|
||||||
end_i = start_i + last_rows_count
|
|
||||||
else:
|
|
||||||
end_i = start_i + rows_per_thread
|
|
||||||
|
|
||||||
args = []
|
|
||||||
args.append((matrix1[start_i:end_i], matrix2, start_i, end_i))
|
|
||||||
with Pool(processes = thread_count) as pool:
|
|
||||||
pool.map(matrixMultiplySingleThread, args)
|
|
||||||
|
|
||||||
|
|
||||||
if __name__ == "__main__":
|
|
||||||
|
|
||||||
sizes = [100, 300, 500]
|
|
||||||
num_threads = [1, 5, 8, 12]
|
|
||||||
|
|
||||||
for size in sizes:
|
|
||||||
matrix1 = generateSquareMatrix(size)
|
|
||||||
matrix2 = generateSquareMatrix(size)
|
|
||||||
start_time = time.time()
|
|
||||||
matrixMultiplyStandard(matrix1, matrix2)
|
|
||||||
end_time = time.time()
|
|
||||||
print(f"Standard size {size}: {end_time - start_time}s")
|
|
||||||
|
|
||||||
for threads in num_threads:
|
|
||||||
start_time = time.time()
|
|
||||||
matrixMultiplyWithThreads(matrix1, matrix2, threads)
|
|
||||||
end_time = time.time()
|
|
||||||
print(f"Parallel size {size}, {threads} thread(s): {end_time - start_time}s")
|
|
||||||
|
|
||||||
print("-" * 100)
|
|
@ -1,18 +0,0 @@
|
|||||||
# Богданов Дмитрий ПИбд-42
|
|
||||||
# Лабораторная работа №5
|
|
||||||
|
|
||||||
|
|
||||||
## Функционал:
|
|
||||||
- Были созданы методы генерации и отображения матриц заданного размера
|
|
||||||
- Былы созданы методы для параллельного умножения матриц с использованием Pool
|
|
||||||
- Был написан код для бенчмаркинга стандартного и параллельного перемножений
|
|
||||||
|
|
||||||
## Результаты выполнения:
|
|
||||||
|
|
||||||
![изображение 1](./images/Screenshot_1.png)
|
|
||||||
|
|
||||||
### Вывод:
|
|
||||||
Использование нескольких потоков приносит значительный выигрыш только на крупных матрицах, в то время как на матрицах меньшего размера больше времени уходит на менеджмент потоков. Это особенно заметно при сравнении результатов выполнения вычислений на матрице размером 100х100.
|
|
||||||
|
|
||||||
|
|
||||||
## [Видео](https://drive.google.com/file/d/1iPfLjzLiWwmszPH_KJ40vFCX-iWDLm1S/view?usp=sharing)
|
|
Before Width: | Height: | Size: 63 KiB |
@ -1,37 +0,0 @@
|
|||||||
# Отчет. Лабораторная работа 7
|
|
||||||
|
|
||||||
## Балансировка нагрузки в распределённых системах при помощи открытых технологий на примерах
|
|
||||||
|
|
||||||
### Какие алгоритмы и методы используются для балансировки нагрузки?
|
|
||||||
В распределенных системах балансировка нагрузки может осуществляться на разных уровнях:
|
|
||||||
- балансировка нагрузки на сетевом уровне
|
|
||||||
- балансировка нагрузки на транспортном уровне
|
|
||||||
- балансировка нагрузки на прикладном уровне
|
|
||||||
|
|
||||||
На сетевом уровне балансировка может реализовываться с помощью таких алгоритмов, как Round Robin, Weighted Round Robin или Least Connections.
|
|
||||||
Алгоритм Round Robin основывается на принципе выделения одному доменному имени несколько IP, которые выбираются
|
|
||||||
при поступлении запроса по очереди.
|
|
||||||
|
|
||||||
Weighted Round Robin - усовершенствованный алгоритм Round Robin, который подразумевает указание весов каждому серверу
|
|
||||||
в зависимости от доступных мощностей.
|
|
||||||
|
|
||||||
Алгоритм Least Connections вносит в предыдущий алгоритм еще одно условие выбора сервера - количество активных подключений к нему,
|
|
||||||
избегая перегруженности имеющихся узлов.
|
|
||||||
|
|
||||||
### Какие открытые технологии существуют для балансировки нагрузки?
|
|
||||||
Среди самых популярных открытых технологий можно выделить Nginx и Kubernetes. Nginx позволяет управлять нагрузкой на
|
|
||||||
компоненты системы с помощью различных алгоритмов и перенаправляет запросы от клиента к сервисам, выстпая в качестве реверс-прокси.
|
|
||||||
Kubernetes представляет собой платформу для управления контейнерами, которая включает встроенные механизмы для балансировки
|
|
||||||
нагрузки между подами.
|
|
||||||
### Как осуществляется балансировка нагрузки на базах данных?
|
|
||||||
|
|
||||||
Можно уменьшить нагрузку на базу данных путем использования механизма кэширования на уровне приложения
|
|
||||||
или с помощью нереляционных БД (Redis и др.). Или с помощью шардирования данных, размещенных в базе.
|
|
||||||
|
|
||||||
Для балансировки нагрузки на базах данных на прикладном уровне, например, существует утилита pgpool —
|
|
||||||
прокси между клиентом и сервером СУБД PostgreSQL, с помощью которого задаются правила перенаправления
|
|
||||||
запросов к БД в зависимости от их содержания (чтение/запись).
|
|
||||||
### Реверс-прокси как один из элементов балансировки нагрузки.
|
|
||||||
Реверс-прокси перенаправляет входящие запросы на соотвествующие сервисы, может выступать при этом и в качестве балансировщика нагрузки, реализуя один из ранее озвученных алгоритмов.
|
|
||||||
Как уже было сказано, примером такого компонента РС может выступать Nginx, в котором с помощью настройки конфигурационного файла можно указать как настройки проксирования,
|
|
||||||
так и добавить логику балансировки.
|
|
@ -1,30 +0,0 @@
|
|||||||
# Отчет. Лабораторная работа 8
|
|
||||||
|
|
||||||
### Популярность распределенных систем (РС)
|
|
||||||
Распределенные системы обладают рядом преимуществ, которые побуждают разработчиков адаптировать уже существующие решения к такой архитектуре (и переписывать монолит на микросервисы).
|
|
||||||
Данный подход позволяет сделать систему более отказоустойчивой, так как её компоненты становятся независимыми друг от друга.
|
|
||||||
Особенно это важно для сложных систем, для которых появляется возможность масштабировать отдельные узлы РС.
|
|
||||||
Также при разработке распределенных систем удобно распределяются задачи между командами разработки и есть возможность
|
|
||||||
использовать свой стек технологий для каждого сервиса.
|
|
||||||
|
|
||||||
### Системы оркестрации
|
|
||||||
Системы оркестрации автоматизируют развертывание, масштабирование и управление контейнерами, что значительно упрощает
|
|
||||||
разработку и сопровождение. Однако вместе с тем они накладывают определенные требования к участникам команды разработки,
|
|
||||||
которым необходимо иметь хотя бы базовые знания об используемой технологии.
|
|
||||||
|
|
||||||
### Очереди сообщений
|
|
||||||
Очереди обработки сообщений позволяют организовать асинхронное взаимодействие между компонентами системы.
|
|
||||||
Такой подход важен, если процесс при отправке сообщения не должен блокироваться, а ответ необязательно должен быть
|
|
||||||
получен и обработан мгновенно. Сообщения, которые передаются по очередям, могут быть некоторыми событиями или командами,
|
|
||||||
на которые могут отреагировать сразу несколько сервисов, подписанных на очередь.
|
|
||||||
|
|
||||||
### Преимущества и недостатки РС
|
|
||||||
К преимуществам РС, как уже было сказано выше, можно отнести масштабируемость, отказоустойчивость, гибкость внедрения новых функциональностей,
|
|
||||||
а к недостаткам - сложности отладки возникающих проблем и тестирования,
|
|
||||||
возникающие сетевые задержки при прохождении запроса через несколько сервисов.
|
|
||||||
|
|
||||||
### Параллелизм: за и против
|
|
||||||
Параллельные вычисления нужно применять там, где это действительно нужно. Например, при обработке больших данных, при возможности
|
|
||||||
разбиения задачи на несколько независимых подзадач.
|
|
||||||
Однако в случаях, где важна последовательность операций,
|
|
||||||
параллелизм может привести к усложнению логики приложения и ошибкам, а при малом объеме данных для обработки параллелизм может только ухудшить производительность.
|
|
12
dozorova_alena_lab_6/.gitignore
vendored
@ -1,12 +0,0 @@
|
|||||||
|
|
||||||
/dozorova_alena_lab_2/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/bin
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/obj
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp1/Properties/PublishProfiles
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/.vs
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/bin
|
|
||||||
/dozorova_alena_lab_2/ConsoleApp2/obj
|
|
||||||
/dozorova_alena_lab_6/ConsoleApp1/.vs
|
|
||||||
/dozorova_alena_lab_6/ConsoleApp1/bin
|
|
||||||
/dozorova_alena_lab_6/ConsoleApp1/obj
|
|
@ -1,10 +0,0 @@
|
|||||||
<Project Sdk="Microsoft.NET.Sdk">
|
|
||||||
|
|
||||||
<PropertyGroup>
|
|
||||||
<OutputType>Exe</OutputType>
|
|
||||||
<TargetFramework>net6.0</TargetFramework>
|
|
||||||
<ImplicitUsings>enable</ImplicitUsings>
|
|
||||||
<Nullable>enable</Nullable>
|
|
||||||
</PropertyGroup>
|
|
||||||
|
|
||||||
</Project>
|
|
@ -1,25 +0,0 @@
|
|||||||
|
|
||||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
|
||||||
# Visual Studio Version 17
|
|
||||||
VisualStudioVersion = 17.10.35004.147
|
|
||||||
MinimumVisualStudioVersion = 10.0.40219.1
|
|
||||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsoleApp1", "ConsoleApp1.csproj", "{29269567-7466-4C99-BEEF-F5766BDDFB24}"
|
|
||||||
EndProject
|
|
||||||
Global
|
|
||||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
|
||||||
Debug|Any CPU = Debug|Any CPU
|
|
||||||
Release|Any CPU = Release|Any CPU
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
|
||||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Release|Any CPU.Build.0 = Release|Any CPU
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(SolutionProperties) = preSolution
|
|
||||||
HideSolutionNode = FALSE
|
|
||||||
EndGlobalSection
|
|
||||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
|
||||||
SolutionGuid = {EDED6E1D-0A86-43F9-94EA-6ADCC1FA1B42}
|
|
||||||
EndGlobalSection
|
|
||||||
EndGlobal
|
|
@ -1,55 +0,0 @@
|
|||||||
using System;
|
|
||||||
using System.Collections.Generic;
|
|
||||||
using System.Linq;
|
|
||||||
using System.Numerics;
|
|
||||||
using System.Text;
|
|
||||||
using System.Threading.Tasks;
|
|
||||||
|
|
||||||
namespace ConsoleApp1
|
|
||||||
{
|
|
||||||
public static class Extention
|
|
||||||
{
|
|
||||||
public static int[,] CreateMatrixWithoutColumn(this int[,] matrix, int column)
|
|
||||||
{
|
|
||||||
var result = new int[matrix.GetLength(0), matrix.GetLength(1) - 1];
|
|
||||||
for (int i = 0; i < matrix.GetLength(0); i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < matrix.GetLength(1) - 1; j++)
|
|
||||||
{
|
|
||||||
result[i, j] = j < column ? matrix[i, j] : matrix[i, j + 1];
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return result;
|
|
||||||
}
|
|
||||||
|
|
||||||
public static int[,] CreateMatrixWithoutRow(this int[,] matrix, int row)
|
|
||||||
{
|
|
||||||
var result = new int[matrix.GetLength(0) - 1, matrix.GetLength(1)];
|
|
||||||
for (int i = 0; i < matrix.GetLength(0) - 1; i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < matrix.GetLength(1); j++)
|
|
||||||
{
|
|
||||||
result[i, j] = i < row ? matrix[i, j] : matrix[i + 1, j];
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
return result;
|
|
||||||
}
|
|
||||||
|
|
||||||
public static double CalculateDeterminant(this int[,] matrix)
|
|
||||||
{
|
|
||||||
if (matrix.GetLength(0) == 2)
|
|
||||||
{
|
|
||||||
return matrix[0, 0] * matrix[1, 1] - matrix[0, 1] * matrix[1, 0];
|
|
||||||
}
|
|
||||||
double result = 0;
|
|
||||||
for (var j = 0; j < matrix.GetLength(0); j++)
|
|
||||||
{
|
|
||||||
result += (j % 2 == 1 ? 1 : -1) * matrix[1, j] *
|
|
||||||
matrix.CreateMatrixWithoutColumn(j).CreateMatrixWithoutRow(1).CalculateDeterminant();
|
|
||||||
}
|
|
||||||
//Console.WriteLine("Ко мне пришли с размером " + matrix.GetLength(0));
|
|
||||||
return result;
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,87 +0,0 @@
|
|||||||
|
|
||||||
using ConsoleApp1;
|
|
||||||
using System.Data.Common;
|
|
||||||
using System.Diagnostics;
|
|
||||||
internal class Program
|
|
||||||
{
|
|
||||||
private static void Main(string[] args)
|
|
||||||
{
|
|
||||||
var value = new int[3] {100, 300, 500 };
|
|
||||||
|
|
||||||
foreach(var i in value)
|
|
||||||
{
|
|
||||||
var a = CreateMatrix(i, i);
|
|
||||||
var b = CreateMatrix(i, i);
|
|
||||||
|
|
||||||
List<long> times = new() {};
|
|
||||||
Console.WriteLine("Для пяти потоков: ");
|
|
||||||
for (int j = 1; j <= 5; j++)
|
|
||||||
{
|
|
||||||
var sw = new Stopwatch();
|
|
||||||
sw.Start();
|
|
||||||
|
|
||||||
Calculate(a, j);
|
|
||||||
|
|
||||||
sw.Stop();
|
|
||||||
times.Add(sw.ElapsedTicks);
|
|
||||||
}
|
|
||||||
Console.WriteLine("Количество тиков для вычисления матрицы стороной "+i+": "+string.Join("\t", times));
|
|
||||||
|
|
||||||
Console.WriteLine("Для десяти потоков: ");
|
|
||||||
for (int j = 1; j <= 10; j++)
|
|
||||||
{
|
|
||||||
var sw = new Stopwatch();
|
|
||||||
sw.Start();
|
|
||||||
|
|
||||||
Calculate(a, j);
|
|
||||||
|
|
||||||
sw.Stop();
|
|
||||||
times.Add(sw.ElapsedTicks);
|
|
||||||
}
|
|
||||||
Console.WriteLine("Количество тиков для вычисления матрицы стороной " + i + ": " + string.Join("\t", times));
|
|
||||||
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
private static int[,] CreateMatrix(int x, int y)
|
|
||||||
{
|
|
||||||
var rnd = new Random();
|
|
||||||
|
|
||||||
var res = new int[y, x];
|
|
||||||
|
|
||||||
for (int i = 0; i < y; i++)
|
|
||||||
{
|
|
||||||
for (int j = 0; j < x; j++)
|
|
||||||
{
|
|
||||||
res[i, j] = rnd.Next(0, 100);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return res;
|
|
||||||
}
|
|
||||||
|
|
||||||
private static double Calculate(int[,] matrix, int maxTask)
|
|
||||||
{
|
|
||||||
double res = 0;
|
|
||||||
|
|
||||||
var semaphore = new SemaphoreSlim(maxTask, maxTask);
|
|
||||||
|
|
||||||
for (var j = 0; j < matrix.GetLength(0) - 1; j++)
|
|
||||||
{
|
|
||||||
_ = Task.Run(() =>
|
|
||||||
{
|
|
||||||
try
|
|
||||||
{
|
|
||||||
semaphore.Wait();
|
|
||||||
res += (j % 2 == 1 ? 1 : -1) * matrix[1, j] *
|
|
||||||
matrix.CreateMatrixWithoutColumn(j).
|
|
||||||
CreateMatrixWithoutRow(1).CalculateDeterminant();
|
|
||||||
}
|
|
||||||
finally { semaphore.Release(); }
|
|
||||||
});
|
|
||||||
|
|
||||||
}
|
|
||||||
|
|
||||||
semaphore.Wait(maxTask);
|
|
||||||
return res;
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,18 +0,0 @@
|
|||||||
# Лабораторная работа 6
|
|
||||||
В рамках данной работы мы изучаем выигрыш при распаралелливании процесса вычисления определителя матрицы
|
|
||||||
## Описание
|
|
||||||
Для вычисления определителя мы используем следующую формулу:
|
|
||||||
![alt text](image.png)
|
|
||||||
где ![alt text](image-1.png) - определитель матрицы, полученной из исходной вырезанием 1 строки и j столбца.
|
|
||||||
|
|
||||||
## Запуск
|
|
||||||
По опыту прошлой лабораторной работы, в консольном приложении был реализован алгоритм вычисление детерминанта и запущено сравнение затраченного времени (в тиках) для 5 и 10 потоков.
|
|
||||||
## Результаты
|
|
||||||
Результаты:
|
|
||||||
<br/>
|
|
||||||
![Результат](image-2.png)
|
|
||||||
<br/>
|
|
||||||
Как мы видим, подтверждаются выводы прошлой лабораторной работы: для небольших матриц выигрыш несущественнен из-за затраты времени на работу с потоком, а для больших эта разница в скорости уже существенна
|
|
||||||
|
|
||||||
## Видеодемонстрация
|
|
||||||
Видеодемонстрация по [адресу](https://drive.google.com/file/d/1dOMaRcTRiPwhn2E4ok1WUOeh_dD9NyDQ/view?usp=sharing)
|
|
Before Width: | Height: | Size: 556 B |
Before Width: | Height: | Size: 67 KiB |
Before Width: | Height: | Size: 2.3 KiB |
@ -1,17 +0,0 @@
|
|||||||
**Балансировка нагрузки** предполагает равномерную нагрузку вычислительных узлов (процессора многопроцессорной ЭВМ или компьютера в сети)
|
|
||||||
|
|
||||||
Следует различать _статическую_ и _динамическую_ балансировки, где первая выполняется до начала выполнения распределенного приложения, а вторая – в процессе.
|
|
||||||
Приведем примеры алгоритмов балансировки:
|
|
||||||
* *Круговой алгоритм*: - распределение входящих запросов между несколькими серверами в порядке циклической очередности. Модификации:
|
|
||||||
- *Взвешенный циклический перебор*, учитывающий мощность серверов
|
|
||||||
- *Динамический круговой алгоритм*, который учитывает текущую нагрузку на серверы при распределении запросов.
|
|
||||||
* *Наименьшее количество соединений* - направление входящих запросов на сервер с наименьшим количеством активных соединений в данный момент времени. Модификации:
|
|
||||||
- *Взвешенное наименьшее количество соединений* – направляет запросы на сервер с наименьшим соотношением активных соединений к его назначенному весу.
|
|
||||||
* *Наименьшее время отклика* - направление запросов на сервер, который демонстрируют наилучшую производительность в данный момент. Он учитывает два ключевых фактора: время отклика сервера и количество активных соединений.
|
|
||||||
* *Наименьший объем трафика* – динамический алгоритм балансировки нагрузки, который направляет входящие запросы на сервер, передающий наименьший объем данных в текущий момент.
|
|
||||||
|
|
||||||
Существует достаточно много различных технологий как для программной, так и аппаратной балансировки. Наиболее популярные решения – это Nginx и OpenELB, MetalLB для Kubernetes.
|
|
||||||
|
|
||||||
Для обеспечения балансировка нагрузки на базах данных используется механизм **репликации**. Балансировка нагрузки заключается в распределении запросов от пользователей по разным копиям (репликам) базы данных.
|
|
||||||
|
|
||||||
**Реверс-прокси** — это сервер, который находится перед веб-серверами и пересылает запросы от клиента на эти веб-серверы. Он не является в полной мере балансировщиком, но может выполнять его функцию при большой нагрузке на систему.
|
|