Compare commits
4 Commits
main
...
ismailov_r
Author | SHA1 | Date | |
---|---|---|---|
0b5101e85b | |||
305b628e5d | |||
3a4cfd1425 | |||
8baf0356d2 |
@ -1 +0,0 @@
|
||||
main.py
|
@ -1,12 +0,0 @@
|
||||
<component name="InspectionProjectProfileManager">
|
||||
<profile version="1.0">
|
||||
<option name="myName" value="Project Default" />
|
||||
<inspection_tool class="PyUnresolvedReferencesInspection" enabled="true" level="WARNING" enabled_by_default="true">
|
||||
<option name="ignoredIdentifiers">
|
||||
<list>
|
||||
<option value="str.__pos__" />
|
||||
</list>
|
||||
</option>
|
||||
</inspection_tool>
|
||||
</profile>
|
||||
</component>
|
@ -1,6 +0,0 @@
|
||||
<component name="InspectionProjectProfileManager">
|
||||
<settings>
|
||||
<option name="USE_PROJECT_PROFILE" value="false" />
|
||||
<version value="1.0" />
|
||||
</settings>
|
||||
</component>
|
@ -1,4 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="ProjectRootManager" version="2" project-jdk-name="Python 3.9 (tukaeva_alfiya_lab_4)" project-jdk-type="Python SDK" />
|
||||
</project>
|
@ -1,32 +0,0 @@
|
||||
# Лабораторная работа 1 - Знакомство с Docker и Docker Compose
|
||||
## ПИбд-42 || Алейкин Артем
|
||||
|
||||
### Описание
|
||||
В данной лабораторной работе мы разворачиваем три популярных сервиса — MediaWiki и Redmine — с использованием Docker Compose. Каждый сервис работает в своем контейнере и использует общую базу данных PostgreSQL для хранения данных. Мы также настраиваем проброс портов для доступа к веб-интерфейсам сервисов и используем Docker volumes для сохранения данных вне контейнеров.
|
||||
|
||||
### Цель проекта
|
||||
изучение современных технологий контейнеризации
|
||||
|
||||
### Шаги для запуска:
|
||||
1. Клонирование репозитория:
|
||||
```
|
||||
git clone <ссылка-на-репозиторий>
|
||||
cd <папка репозитория>
|
||||
```
|
||||
|
||||
2. Запуск контейнеров:
|
||||
```
|
||||
docker-compose up -d
|
||||
```
|
||||
|
||||
3. После запуска должны быть доступны следующие контейнеры:
|
||||
|
||||
MediaWiki: http://localhost:8080
|
||||
Redmine: http://localhost:8081
|
||||
|
||||
4. Чтобы остановить контейнеры:
|
||||
```
|
||||
docker-compose down
|
||||
```
|
||||
|
||||
Видео демонстрации работы: https://vk.com/video248424990_456239601?list=ln-sCRa9IIiV1VpInn2d1
|
@ -1,45 +0,0 @@
|
||||
services:
|
||||
mediawiki:
|
||||
image: mediawiki
|
||||
container_name: mediawiki
|
||||
ports:
|
||||
- "8080:80" # Пробрасываем порт 8080 на хост для доступа к MediaWiki
|
||||
volumes:
|
||||
- mediawiki_data:/var/www/html/images # Создаем volume для хранения данных MediaWiki
|
||||
environment:
|
||||
- MEDIAWIKI_DB_HOST=db
|
||||
- MEDIAWIKI_DB_NAME=mediawiki
|
||||
- MEDIAWIKI_DB_USER=root
|
||||
- MEDIAWIKI_DB_PASSWORD=example
|
||||
depends_on:
|
||||
- db
|
||||
|
||||
redmine:
|
||||
image: redmine
|
||||
container_name: redmine
|
||||
ports:
|
||||
- "8081:3000" # Пробрасываем порт 8081 на хост для доступа к Redmine
|
||||
volumes:
|
||||
- redmine_data:/usr/src/redmine/files # Создаем volume для хранения данных Redmine
|
||||
environment:
|
||||
- REDMINE_DB_POSTGRESQL=db
|
||||
- REDMINE_DB_DATABASE=redmine
|
||||
- REDMINE_DB_USERNAME=root
|
||||
- REDMINE_DB_PASSWORD=example
|
||||
depends_on:
|
||||
- db
|
||||
|
||||
db:
|
||||
image: postgres:latest
|
||||
container_name: db
|
||||
environment:
|
||||
POSTGRES_USER: postgres
|
||||
POSTGRES_PASSWORD: example
|
||||
POSTGRES_DB: postgres
|
||||
volumes:
|
||||
- db_data:/var/lib/postgresql # Volume для базы данных
|
||||
|
||||
volumes:
|
||||
mediawiki_data: # volume для MediaWiki
|
||||
redmine_data: # volume для Redmine
|
||||
db_data: # volume для базы данных
|
@ -1,48 +0,0 @@
|
||||
## Отчет по Docker Compose конфигурации
|
||||
|
||||
### Краткое описание:
|
||||
|
||||
Данная конфигурация Docker Compose запускает набор сервисов, необходимых для работы WordPress и MediaWiki. Она включает в себя:
|
||||
|
||||
- **WordPress:** веб-сервис для блогов и CMS
|
||||
- **MySQL:** база данных для хранения данных WordPress
|
||||
- **RabbitMQ:** брокер сообщений для потенциального использования в будущем
|
||||
- **MediaWiki:** вики-движок для создания и редактирования вики-страниц
|
||||
|
||||
### Запуск лабораторной работы:
|
||||
|
||||
1. Установить Docker и Docker Compose.
|
||||
2. Сохранить конфигурацию в файл docker-compose.yml.
|
||||
3. Запустить команду docker-compose up --build
|
||||
|
||||
### Используемые технологии:
|
||||
|
||||
- **Docker Compose:** инструмент для определения и запуска многоконтейнерных приложений.
|
||||
- **Docker:** платформа для создания, развертывания и запуска контейнеров.
|
||||
- **WordPress:** популярная платформа для создания блогов и CMS.
|
||||
- **MySQL:** популярная система управления базами данных.
|
||||
- **RabbitMQ:** брокер сообщений, используемый для асинхронного обмена сообщениями.
|
||||
- **MediaWiki:** свободное программное обеспечение для создания и редактирования вики-страниц.
|
||||
|
||||
### Функциональность:
|
||||
|
||||
Конфигурация запускает следующие сервисы:
|
||||
|
||||
- **WordPress:** работает на порту 8080, доступен по адресу http://localhost:8080.
|
||||
- **MySQL:** предоставляет базу данных для WordPress и MediaWiki.
|
||||
- **RabbitMQ:** работает на порту 5672, доступен по адресу http://localhost:15672 для управления.
|
||||
- **MediaWiki:** работает на порту 8081, доступен по адресу http://localhost:8081.
|
||||
|
||||
### Дополнительные сведения
|
||||
|
||||
- **Volumes**: используются для хранения данных сервисов, чтобы они не терялись при перезапуске контейнеров.
|
||||
- **Depends_on**: указывает на зависимость между сервисами, например, WordPress зависит от MySQL.
|
||||
- **Restart policy**: определяет, как сервисы будут перезапускаться после сбоя.
|
||||
|
||||
### Видео
|
||||
|
||||
https://vk.com/video/@artamonovat?z=video212084908_456239356%2Fpl_212084908_-2
|
||||
|
||||
### Заключение:
|
||||
|
||||
Данная конфигурация Docker Compose обеспечивает простой и удобный способ запуска и управления несколькими сервисами, связанными с WordPress и MediaWiki. Она позволяет разработчикам легко развертывать и управлять приложениями в изолированной среде.
|
@ -1,61 +0,0 @@
|
||||
version: '3.7'
|
||||
|
||||
services:
|
||||
wordpress:
|
||||
image: wordpress:latest
|
||||
ports:
|
||||
- "8080:80"
|
||||
volumes:
|
||||
- wordpress_data:/var/www/html
|
||||
environment:
|
||||
WORDPRESS_DB_HOST: db
|
||||
WORDPRESS_DB_NAME: wordpress
|
||||
WORDPRESS_DB_USER: wordpress
|
||||
WORDPRESS_DB_PASSWORD: password
|
||||
depends_on:
|
||||
- db
|
||||
restart: unless-stopped
|
||||
|
||||
db:
|
||||
image: mysql:latest
|
||||
volumes:
|
||||
- db_data:/var/lib/mysql
|
||||
environment:
|
||||
MYSQL_DATABASE: wordpress
|
||||
MYSQL_USER: wordpress
|
||||
MYSQL_PASSWORD: dbpassword
|
||||
MYSQL_ROOT_PASSWORD: rootpassword
|
||||
restart: unless-stopped
|
||||
|
||||
rabbitmq:
|
||||
image: rabbitmq:3-management
|
||||
ports:
|
||||
- "5672:5672"
|
||||
- "15672:15672"
|
||||
volumes:
|
||||
- rabbitmq_data:/var/lib/rabbitmq
|
||||
environment:
|
||||
RABBITMQ_DEFAULT_USER: guest
|
||||
RABBITMQ_DEFAULT_PASS: password
|
||||
restart: unless-stopped
|
||||
|
||||
mediawiki:
|
||||
image: mediawiki:latest
|
||||
ports:
|
||||
- "8081:80"
|
||||
volumes:
|
||||
- mediawiki_data:/var/www/html
|
||||
environment:
|
||||
MW_DB_SERVER: db
|
||||
MW_DB_NAME: mediawiki
|
||||
MW_DB_USER: mediawiki
|
||||
MW_DB_PASSWORD: mediawiki_password
|
||||
depends_on:
|
||||
- db
|
||||
restart: unless-stopped
|
||||
|
||||
volumes:
|
||||
wordpress_data:
|
||||
db_data:
|
||||
rabbitmq_data:
|
||||
mediawiki_data:
|
5
artamonova_tatyana_lab_2/.gitignore
vendored
@ -1,5 +0,0 @@
|
||||
*.pyc
|
||||
__pycache__
|
||||
*.egg-info
|
||||
*.dist-info
|
||||
.DS_Store
|
@ -1,22 +0,0 @@
|
||||
## Лабораторная работа №2
|
||||
### Выполнила Артамонова Татьяна ПИбд-42
|
||||
|
||||
**Вариант 1: Программа 4 - Количество символов в именах файлов из каталога /var/data**
|
||||
|
||||
- Формирует файл /var/result/data1.txt так, что каждая строка файла - количество символов в именах файлов из каталога /var/data.
|
||||
|
||||
**Вариант 2: Программа 3 - Количество чисел в последовательности**
|
||||
|
||||
- Ищет набольшее число из файла /var/result/data1.txt и сохраняет количество таких чисел из последовательности в /var/result/data2.txt.
|
||||
|
||||
**Структура проекта:**
|
||||
|
||||
1. В папках worker-1, worker-2 лежат выполняемые файлы .py и Dockerfile-ы с необходимым набором инструкций.
|
||||
2. В папке data лежат файлы, длину имен которых нужно посчитать.
|
||||
3. В папке result лежат файлы с результатами выполнения программ. data1.txt - результат выполнения main1.py (worker-1), data2.txt - результат выполнения main2.py (worker-2). Данные в data2 рассчитываются из данных data1.
|
||||
4. Файл .gitignore - для указания, какие файлы отслеживать, а какие - нет.
|
||||
5. docker-compose.yml - для определения и управления контейнерами Docker.
|
||||
|
||||
**Команда для запуска** - docker-compose up --build
|
||||
|
||||
**Ссылка на видео:** https://vk.com/artamonovat?z=video212084908_456239357%2Fvideos212084908%2Fpl_212084908_-2
|
@ -1,22 +0,0 @@
|
||||
services:
|
||||
worker-1:
|
||||
build:
|
||||
context: ./worker-1
|
||||
volumes:
|
||||
- ./worker-1:/app
|
||||
- ./data:/var/data
|
||||
- ./result:/var/result
|
||||
depends_on:
|
||||
- worker-2
|
||||
|
||||
worker-2:
|
||||
build:
|
||||
context: ./worker-2
|
||||
volumes:
|
||||
- ./worker-2:/app
|
||||
- ./data:/var/data
|
||||
- ./result:/var/result
|
||||
|
||||
volumes:
|
||||
data:
|
||||
result:
|
@ -1,3 +0,0 @@
|
||||
15
|
||||
18
|
||||
18
|
@ -1 +0,0 @@
|
||||
2
|
@ -1,14 +0,0 @@
|
||||
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
||||
# slim-версия образа более компактная, что делает контейнер меньше.
|
||||
FROM python:3.10-slim
|
||||
|
||||
# Устанавливаем рабочую директорию в контейнере как /app.
|
||||
# Все последующие команды будут выполняться в этой директории.
|
||||
WORKDIR /app
|
||||
|
||||
# Копируем файл main1.py из текущей директории в директорию /app в контейнере.
|
||||
COPY main1.py .
|
||||
|
||||
# Определяем команду, которая будет выполняться при запуске контейнера.
|
||||
# В данном случае запускается Python-скрипт main1.py.
|
||||
CMD ["python", "main1.py"]
|
@ -1,21 +0,0 @@
|
||||
import os
|
||||
import glob
|
||||
|
||||
# Формирует файл data1.txt так, что каждая строка файла - кол-во символов в именах файла из каталога /data
|
||||
def main():
|
||||
data_dir = "/var/data"
|
||||
result_file = "/var/result/data1.txt"
|
||||
|
||||
result_dir = os.path.dirname(result_file)
|
||||
if not os.path.exists(result_dir):
|
||||
os.makedirs(result_dir)
|
||||
|
||||
files = glob.glob(os.path.join(data_dir, '*'))
|
||||
|
||||
with open(result_file, 'w') as f:
|
||||
for file in files:
|
||||
filename = os.path.basename(file)
|
||||
f.write(f"{len(filename)}\n")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
@ -1,14 +0,0 @@
|
||||
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
||||
# slim-версия образа более компактная, что делает контейнер меньше.
|
||||
FROM python:3.10-slim
|
||||
|
||||
# Устанавливаем рабочую директорию в контейнере как /app.
|
||||
# Все последующие команды будут выполняться в этой директории.
|
||||
WORKDIR /app
|
||||
|
||||
# Копируем файл main2.py из текущей директории в директорию /app в контейнере.
|
||||
COPY main2.py .
|
||||
|
||||
# Определяем команду, которая будет выполняться при запуске контейнера.
|
||||
# В данном случае запускается Python-скрипт main2.py.
|
||||
CMD ["python", "main2.py"]
|
@ -1,26 +0,0 @@
|
||||
import os
|
||||
|
||||
# Ищет наибольшее число из файла data1.txt и сохраняет количество таких чисел из последовательности в data2.txt
|
||||
def main():
|
||||
data_file_path = "/var/result/data1.txt"
|
||||
result_file_path = "/var/result/data2.txt"
|
||||
|
||||
if not os.path.exists(data_file_path):
|
||||
data_dir = os.path.dirname(data_file_path)
|
||||
|
||||
if not os.path.exists(result_file_path):
|
||||
result_dir = os.path.dirname(result_file_path)
|
||||
|
||||
with open(data_file_path, 'r') as f:
|
||||
numbers = [int(x.strip()) for x in f.read().splitlines()]
|
||||
|
||||
max_number = max(numbers)
|
||||
count = numbers.count(max_number)
|
||||
|
||||
with open(result_file_path, 'w') as f:
|
||||
f.write(str(count))
|
||||
|
||||
print(f"Количество наибольших чисел: {count}")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
2
bogdanov_dmitry_lab_3/.gitignore
vendored
@ -1,2 +0,0 @@
|
||||
/.idea
|
||||
/.venv
|
@ -1,22 +0,0 @@
|
||||
# Лабораторная работа №3
|
||||
|
||||
## Богданов Дмитрий ПИбд-42
|
||||
|
||||
### Для выполнения были выбраны следующие сущности:
|
||||
|
||||
* Message - содержит uuid (генерируется), text, datetime_sent, user_id
|
||||
* User - содержит uuid (генерируется), name, surname
|
||||
|
||||
Одному пользователю может быть присвоено несколько сообщений.
|
||||
|
||||
Соответственно были развернуты 2 сервиса для управления этими сущностями.
|
||||
|
||||
### Запуск лабораторной:
|
||||
Необходимо перейти в папку с файлом compose.yaml и ввести следующую команду:
|
||||
```
|
||||
docker-compose up --build -d
|
||||
```
|
||||
|
||||
## Видео с результатом запуска и тестами...
|
||||
|
||||
...можно посмотреть по данной [ссылке](https://drive.google.com/file/d/1cJz0z4KduSz1oltmAuieUW7GxxVLNPNo/view).
|
@ -1,27 +0,0 @@
|
||||
services:
|
||||
|
||||
user_service:
|
||||
container_name: userService
|
||||
build:
|
||||
context: .
|
||||
dockerfile: ./userService/Dockerfile
|
||||
expose:
|
||||
- 20001
|
||||
|
||||
message_service:
|
||||
container_name: messageService
|
||||
build:
|
||||
context: .
|
||||
dockerfile: ./messageService/Dockerfile
|
||||
expose:
|
||||
- 20002
|
||||
|
||||
nginx:
|
||||
image: nginx:latest
|
||||
ports:
|
||||
- "80:80"
|
||||
volumes:
|
||||
- ./nginx.conf:/etc/nginx/nginx.conf
|
||||
depends_on:
|
||||
- user_service
|
||||
- message_service
|
@ -1,11 +0,0 @@
|
||||
FROM python:latest
|
||||
|
||||
WORKDIR /app
|
||||
|
||||
COPY requirements.txt .
|
||||
|
||||
RUN pip install --no-cache-dir -r requirements.txt
|
||||
|
||||
COPY messageService/messageService.py .
|
||||
|
||||
CMD ["python", "messageService.py"]
|
@ -1,138 +0,0 @@
|
||||
from flask import Flask, request, jsonify
|
||||
from uuid import uuid4
|
||||
import uuid
|
||||
import datetime
|
||||
import requests
|
||||
|
||||
class Message:
|
||||
def __init__(self, text: str, datetime_sent: datetime, uuid_: uuid, user_id: uuid):
|
||||
if uuid_ is None:
|
||||
self.uuid_ = uuid4()
|
||||
else:
|
||||
self.uuid_ = uuid.UUID(uuid_)
|
||||
self.text = text
|
||||
self.datetime_sent = datetime_sent
|
||||
self.user_id = uuid.UUID(user_id)
|
||||
|
||||
def to_dict(self):
|
||||
return {
|
||||
'text': self.text,
|
||||
'datetime_sent': self.datetime_sent,
|
||||
'user_id': self.user_id,
|
||||
'uuid': self.uuid_
|
||||
}
|
||||
|
||||
def to_dict_for_users(self):
|
||||
return {
|
||||
'title': self.text,
|
||||
'datetime_sent': self.datetime_sent,
|
||||
'uuid': self.uuid_
|
||||
}
|
||||
|
||||
def to_dict_with_info(self, user: dict):
|
||||
return {
|
||||
'title': self.text,
|
||||
'datetime_sent': self.datetime_sent,
|
||||
'user_id': self.user_id,
|
||||
'user_info': user,
|
||||
'uuid': self.uuid_
|
||||
}
|
||||
|
||||
messages = [
|
||||
Message(text='Hi!', datetime_sent=datetime.datetime.now(), uuid_='4add0525-1857-477d-ad35-56790d400b72', user_id='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
||||
Message(text='Hello this is a message', datetime_sent=datetime.datetime.now(), uuid_='dd69758d-89e8-49b5-86bf-54ae2adb64e8', user_id='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
||||
Message(text='Test', datetime_sent=datetime.datetime.now(), uuid_='92389e8d-4365-457e-b37e-78abbc07f194', user_id='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
||||
Message(text='Anyone here?', datetime_sent=datetime.datetime.now(), uuid_='f3a1c526-aca2-47e2-afd3-a1c2eac92458', user_id='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
||||
Message(text='Mambo', datetime_sent=datetime.datetime.now(), uuid_='00abbdb5-e480-4842-bc32-f916894757eb', user_id='46672ea5-3d7b-4137-a0ac-efd898ca4db6')
|
||||
]
|
||||
|
||||
def list_jsonify():
|
||||
return jsonify([message.to_dict() for message in messages])
|
||||
|
||||
|
||||
app = Flask(__name__)
|
||||
users_url = 'http://userService:20001/'
|
||||
|
||||
@app.route('/', methods=['GET'])
|
||||
def get_all():
|
||||
return list_jsonify(), 200
|
||||
|
||||
@app.route('/info', methods=['GET'])
|
||||
def get_all_full():
|
||||
users: list[dict] = requests.get(users_url).json()
|
||||
response = []
|
||||
for message in messages:
|
||||
for user in users:
|
||||
if message.user_id == uuid.UUID(user.get('uuid')):
|
||||
response.append(message.to_dict_with_info(user))
|
||||
|
||||
return response, 200
|
||||
|
||||
@app.route('/by-user/<uuid:user_uuid>', methods=['GET'])
|
||||
def get_by_user_id(user_uuid):
|
||||
return [message.to_dict_for_users() for message in messages if message.user_id == user_uuid], 200
|
||||
|
||||
@app.route('/info/<uuid:uuid_>', methods=['GET'])
|
||||
def get_one_full(uuid_):
|
||||
for message in messages:
|
||||
if message.uuid_ == uuid_:
|
||||
response = requests.get(users_url + str(message.user_id))
|
||||
return message.to_dict_with_info(response.json()), 200
|
||||
|
||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||
|
||||
@app.route('/', methods=['POST'])
|
||||
def create():
|
||||
data = request.json
|
||||
text = data.get('text', None)
|
||||
datetime_sent = datetime.datetime.now()
|
||||
user_id = data.get('user_id', None)
|
||||
checking = requests.get(users_url + f'/check/{user_id}')
|
||||
print(checking)
|
||||
if checking.status_code == 200:
|
||||
new_message = Message(text, datetime_sent, None, user_id)
|
||||
messages.append(new_message)
|
||||
return get_one(new_message.uuid_)
|
||||
if checking.status_code == 404:
|
||||
return f'Пользователь с uuid {user_id} не существует', 404
|
||||
|
||||
return 'Неизвестная ошибка', 500
|
||||
|
||||
@app.route('/<uuid:uuid_>', methods=['PUT'])
|
||||
def update_by_id(uuid_):
|
||||
data = request.json
|
||||
new_text = data.get('text', None)
|
||||
|
||||
for message in messages:
|
||||
print(message.uuid_)
|
||||
|
||||
if message.uuid_ == uuid_:
|
||||
if new_text is not None:
|
||||
message.text = new_text
|
||||
return get_one(message.uuid_)
|
||||
|
||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||
|
||||
|
||||
@app.route('/<uuid:uuid_>', methods=['DELETE'])
|
||||
def delete(uuid_):
|
||||
for message in messages:
|
||||
if message.uuid_ == uuid_:
|
||||
messages.remove(message)
|
||||
return 'Сообщение успешно удалено', 200
|
||||
|
||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||
|
||||
|
||||
|
||||
@app.route('/<uuid:uuid_>', methods=['GET'])
|
||||
def get_one(uuid_):
|
||||
for message in messages:
|
||||
if message.uuid_ == uuid_:
|
||||
return message.to_dict(), 200
|
||||
|
||||
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||
|
||||
|
||||
if __name__ == '__main__':
|
||||
app.run(host='0.0.0.0', port=20002, debug=True)
|
@ -1,25 +0,0 @@
|
||||
events { worker_connections 1024; }
|
||||
|
||||
http {
|
||||
server {
|
||||
listen 80;
|
||||
listen [::]:80;
|
||||
server_name localhost;
|
||||
|
||||
location /userService/ {
|
||||
proxy_pass http://userService:20001/;
|
||||
proxy_set_header Host $host;
|
||||
proxy_set_header X-Real-IP $remote_addr;
|
||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
||||
proxy_set_header X-Forwarded-Proto $scheme;
|
||||
}
|
||||
|
||||
location /messageService/ {
|
||||
proxy_pass http://messageService:20002/;
|
||||
proxy_set_header Host $host;
|
||||
proxy_set_header X-Real-IP $remote_addr;
|
||||
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
||||
proxy_set_header X-Forwarded-Proto $scheme;
|
||||
}
|
||||
}
|
||||
}
|
@ -1,2 +0,0 @@
|
||||
Flask==3.0.3
|
||||
requests==2.32.3
|
@ -1,11 +0,0 @@
|
||||
FROM python:latest
|
||||
|
||||
WORKDIR /app
|
||||
|
||||
COPY requirements.txt .
|
||||
|
||||
RUN pip install --no-cache-dir -r requirements.txt
|
||||
|
||||
COPY userService/userService.py .
|
||||
|
||||
CMD ["python", "userService.py"]
|
@ -1,115 +0,0 @@
|
||||
from flask import Flask, jsonify, request
|
||||
from uuid import uuid4
|
||||
import uuid
|
||||
import requests
|
||||
|
||||
|
||||
class User:
|
||||
def __init__(self, name, surname, uuid_: uuid):
|
||||
if uuid_ is None:
|
||||
self.uuid_: uuid = uuid4()
|
||||
else:
|
||||
self.uuid_: uuid = uuid.UUID(uuid_)
|
||||
self.name: str = name
|
||||
self.surname: str = surname
|
||||
|
||||
def to_dict(self):
|
||||
return {
|
||||
"uuid": self.uuid_,
|
||||
"name": self.name,
|
||||
"surname": self.surname
|
||||
}
|
||||
|
||||
def to_dict_with_messages(self, messages: list):
|
||||
return {
|
||||
"uuid": self.uuid_,
|
||||
"name": self.name,
|
||||
"surname": self.surname,
|
||||
"messages": messages
|
||||
}
|
||||
|
||||
|
||||
app = Flask(__name__)
|
||||
|
||||
users: list[User] = [
|
||||
User(name='Dr.', surname='Kino', uuid_='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
||||
User(name='Caspian', surname='Holstrom', uuid_='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
||||
User(name='Admin', surname='Admin', uuid_='46672ea5-3d7b-4137-a0ac-efd898ca4db6')
|
||||
]
|
||||
|
||||
messages_url = 'http://messageService:20002/'
|
||||
|
||||
|
||||
def list_jsonify():
|
||||
return jsonify([user.to_dict() for user in users])
|
||||
|
||||
@app.route('/', methods=['GET'])
|
||||
def get_all():
|
||||
return list_jsonify(), 200
|
||||
|
||||
@app.route('/<uuid:uuid_>', methods=['GET'])
|
||||
def get_one(uuid_):
|
||||
for user in users:
|
||||
if user.uuid_ == uuid_:
|
||||
return user.to_dict(), 200
|
||||
|
||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||
|
||||
@app.route('/info/<uuid:uuid_>', methods=['GET'])
|
||||
def get_one_with_messages(uuid_):
|
||||
for user in users:
|
||||
if user.uuid_ == uuid_:
|
||||
response = requests.get(messages_url + f'by-user/{uuid_}')
|
||||
print(response.json())
|
||||
return user.to_dict_with_messages(response.json()), 200
|
||||
|
||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||
|
||||
@app.route('/check/<uuid:uuid_>', methods=['GET'])
|
||||
def check_exist(uuid_):
|
||||
for user in users:
|
||||
if user.uuid_ == uuid_:
|
||||
return '', 200
|
||||
return '', 404
|
||||
|
||||
@app.route('/', methods=['POST'])
|
||||
def create():
|
||||
data = request.json
|
||||
name = data.get('name', None)
|
||||
surname = data.get('surname', None)
|
||||
if name is None or surname is None:
|
||||
return 'Недостаточно информации для создания пользователя', 404
|
||||
|
||||
new_user = User(name, surname, None)
|
||||
users.append(new_user)
|
||||
return get_one(new_user.uuid_)
|
||||
|
||||
@app.route('/<uuid:uuid_>', methods=['PUT'])
|
||||
def update_by_id(uuid_):
|
||||
data = request.json
|
||||
new_name = data.get('name', None)
|
||||
new_surname = data.get('surname', None)
|
||||
|
||||
for user in users:
|
||||
if user.uuid_ == uuid_:
|
||||
if new_name is not None:
|
||||
user.name = new_name
|
||||
if new_surname is not None:
|
||||
user.surname = new_surname
|
||||
return get_one(user.uuid_)
|
||||
|
||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||
|
||||
|
||||
@app.route('/<uuid:uuid_>', methods=['DELETE'])
|
||||
def delete(uuid_):
|
||||
for user in users:
|
||||
if user.uuid_ == uuid_:
|
||||
users.remove(user)
|
||||
return 'Пользователь удален', 200
|
||||
|
||||
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||
|
||||
|
||||
if __name__ == '__main__':
|
||||
app.run(host='0.0.0.0', port=20001, debug=True)
|
@ -1,34 +0,0 @@
|
||||
# Богданов Дмитрий ПИбд-42
|
||||
# Лабораторная работа №4
|
||||
|
||||
|
||||
## Предметная область:
|
||||
Автоматизация работы теплицы
|
||||
|
||||
## Результаты выполнения туториалов:
|
||||
|
||||
- Первый туториал:
|
||||
![изображение 1](./images/tut1.png)
|
||||
|
||||
- Второй туториал:
|
||||
![изображение 2](./images/tut2.png)
|
||||
|
||||
- Третий туториал:
|
||||
![изображение 3](./images/tut3.png)
|
||||
|
||||
|
||||
## Данные из RabbitMQ:
|
||||
|
||||
![изображение 1](./images/rmq1.png)
|
||||
![изображение 2](./images/rmq2.png)
|
||||
![изображение 3](./images/rmq3.png)
|
||||
![изображение 3](./images/rmq4.png)
|
||||
|
||||
### Вывод:
|
||||
Из-за моментальной обработки сообщений в Consumer2, его очередь никогда не заполняется.
|
||||
Consumer1 же тратит на обработку 2 секунды, из-за чего соответствующая очередь существенно заполняется при одном
|
||||
запущенном экземпляре.
|
||||
При нескольких запущенных экземплярах Consumer1 очередь заполняется существенно медленнее, и перестаёт заполняться совсем при определенном кол-ве запущенных экземпляров.
|
||||
|
||||
|
||||
## [Видео](https://drive.google.com/file/d/1KWHHYWiK8OX48OfhDnEKDtMz-Umfs0uj/view?usp=sharing)
|
@ -1,27 +0,0 @@
|
||||
import pika
|
||||
import time
|
||||
|
||||
|
||||
def callback(ch, method, properties, body):
|
||||
print(f'Receiver 1: получено сообщение. {body.decode()}')
|
||||
|
||||
time.sleep(3)
|
||||
|
||||
print('Receiver 1 закончил обработку')
|
||||
|
||||
|
||||
def consume_events_1():
|
||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.queue_declare(queue='receiver1_queue')
|
||||
channel.queue_bind(exchange='greenhouse_events', queue='receiver1_queue')
|
||||
|
||||
channel.basic_consume(queue='receiver1_queue', on_message_callback=callback, auto_ack=True)
|
||||
|
||||
print('Ожидание сообщения...')
|
||||
channel.start_consuming()
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
consume_events_1()
|
@ -1,24 +0,0 @@
|
||||
import pika
|
||||
|
||||
|
||||
def callback(ch, method, properties, body):
|
||||
print(f'Receiver 2: получено сообщение. {body.decode()}')
|
||||
|
||||
print('Receiver 2 закончил обработку')
|
||||
|
||||
|
||||
def consume_events_2():
|
||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.queue_declare(queue='receiver2_queue')
|
||||
channel.queue_bind(exchange='greenhouse_events', queue='receiver2_queue')
|
||||
|
||||
channel.basic_consume(queue='receiver2_queue', on_message_callback=callback, auto_ack=True)
|
||||
|
||||
print('Ожидание сообщения...')
|
||||
channel.start_consuming()
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
consume_events_2()
|
@ -1,25 +0,0 @@
|
||||
import pika
|
||||
import time
|
||||
|
||||
def publish_events():
|
||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.exchange_declare(exchange='greenhouse_events', exchange_type='fanout')
|
||||
|
||||
events = [
|
||||
"Влажность превысила верхнюю границу",
|
||||
"Влажность упала за нижнюю границу",
|
||||
"Полив начат",
|
||||
"Полив остановлен"
|
||||
]
|
||||
|
||||
while True:
|
||||
event = events[int(time.time()) % len(events)]
|
||||
channel.basic_publish(exchange='greenhouse_events', routing_key='', body=event)
|
||||
print(f'Отправлено: {event}')
|
||||
time.sleep(1)
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
publish_events()
|
@ -1,25 +0,0 @@
|
||||
import pika, sys, os
|
||||
|
||||
def main():
|
||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.queue_declare(queue='hello')
|
||||
|
||||
def callback(ch, method, properties, body):
|
||||
print(f" [x] Received {body}")
|
||||
|
||||
channel.basic_consume(queue='hello', on_message_callback=callback, auto_ack=True)
|
||||
|
||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
||||
channel.start_consuming()
|
||||
|
||||
if __name__ == '__main__':
|
||||
try:
|
||||
main()
|
||||
except KeyboardInterrupt:
|
||||
print('Interrupted')
|
||||
try:
|
||||
sys.exit(0)
|
||||
except SystemExit:
|
||||
os._exit(0)
|
@ -1,13 +0,0 @@
|
||||
import pika
|
||||
|
||||
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.queue_declare('hello')
|
||||
|
||||
channel.basic_publish(exchange='',
|
||||
routing_key='hello',
|
||||
body='Hello world!')
|
||||
print(" [x] Sent 'Hello world!'")
|
||||
|
||||
connection.close()
|
@ -1,19 +0,0 @@
|
||||
import pika
|
||||
import sys
|
||||
|
||||
connection = pika.BlockingConnection(
|
||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.queue_declare(queue='task_queue', durable=True)
|
||||
|
||||
message = ' '.join(sys.argv[1:]) or "Hello World!"
|
||||
channel.basic_publish(
|
||||
exchange='',
|
||||
routing_key='task_queue',
|
||||
body=message,
|
||||
properties=pika.BasicProperties(
|
||||
delivery_mode=pika.DeliveryMode.Persistent
|
||||
))
|
||||
print(f" [x] Sent {message}")
|
||||
connection.close()
|
@ -1,22 +0,0 @@
|
||||
import pika
|
||||
import time
|
||||
|
||||
connection = pika.BlockingConnection(
|
||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.queue_declare(queue='task_queue', durable=True)
|
||||
print(' [*] Waiting for messages. To exit press CTRL+C')
|
||||
|
||||
|
||||
def callback(ch, method, properties, body):
|
||||
print(f" [x] Received {body.decode()}")
|
||||
time.sleep(body.count(b'.'))
|
||||
print(" [x] Done")
|
||||
ch.basic_ack(delivery_tag=method.delivery_tag)
|
||||
|
||||
|
||||
channel.basic_qos(prefetch_count=1)
|
||||
channel.basic_consume(queue='task_queue', on_message_callback=callback)
|
||||
|
||||
channel.start_consuming()
|
@ -1,13 +0,0 @@
|
||||
import pika
|
||||
import sys
|
||||
|
||||
connection = pika.BlockingConnection(
|
||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
||||
|
||||
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
|
||||
channel.basic_publish(exchange='logs', routing_key='', body=message)
|
||||
print(f" [x] Sent {message}")
|
||||
connection.close()
|
@ -1,22 +0,0 @@
|
||||
import pika
|
||||
|
||||
connection = pika.BlockingConnection(
|
||||
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||
channel = connection.channel()
|
||||
|
||||
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
||||
|
||||
result = channel.queue_declare(queue='', exclusive=True)
|
||||
queue_name = result.method.queue
|
||||
|
||||
channel.queue_bind(exchange='logs', queue=queue_name)
|
||||
|
||||
print(' [*] Waiting for logs. To exit press CTRL+C')
|
||||
|
||||
def callback(ch, method, properties, body):
|
||||
print(f" [x] {body}")
|
||||
|
||||
channel.basic_consume(
|
||||
queue=queue_name, on_message_callback=callback, auto_ack=True)
|
||||
|
||||
channel.start_consuming()
|
@ -1,12 +0,0 @@
|
||||
version: '3.8'
|
||||
|
||||
services:
|
||||
rabbitmq:
|
||||
image: rabbitmq:3-management
|
||||
container_name: rabbitmq
|
||||
environment:
|
||||
RABBITMQ_DEFAULT_USER: user
|
||||
RABBITMQ_DEFAULT_PASS: password
|
||||
ports:
|
||||
- "5672:5672"
|
||||
- "15672:15672"
|
Before Width: | Height: | Size: 38 KiB |
Before Width: | Height: | Size: 33 KiB |
Before Width: | Height: | Size: 28 KiB |
Before Width: | Height: | Size: 29 KiB |
Before Width: | Height: | Size: 27 KiB |
Before Width: | Height: | Size: 28 KiB |
Before Width: | Height: | Size: 27 KiB |
@ -1,88 +0,0 @@
|
||||
import random as rnd
|
||||
import threading
|
||||
import time
|
||||
from multiprocessing import Pool
|
||||
|
||||
def generateSquareMatrix(size):
|
||||
return [[rnd.randint(0, 100) for i in range(size)] for j in range(size)]
|
||||
|
||||
def printMatrix(matrix):
|
||||
for row in matrix:
|
||||
print(*row, sep="\t")
|
||||
|
||||
|
||||
# Перемножение без использования потоков
|
||||
def matrixMultiplyStandard(matrix1, matrix2):
|
||||
l1 = len(matrix1)
|
||||
l2 = len(matrix2)
|
||||
global result_matrix
|
||||
result = result_matrix
|
||||
for i in range(l1):
|
||||
for j in range(l2):
|
||||
for k in range(l2):
|
||||
result[i][j] += matrix1[i][k] * matrix2[k][j]
|
||||
|
||||
return result
|
||||
|
||||
result_matrix = [[0 for i in range(500)] for j in range(500)]
|
||||
|
||||
# Перемножение в отдельном потоке
|
||||
def matrixMultiplySingleThread(args):
|
||||
matrix1, matrix2, start_i, end_i = args
|
||||
global result_matrix
|
||||
|
||||
result = result_matrix
|
||||
|
||||
for i in range(start_i, end_i):
|
||||
for j in range(len(matrix2[0])):
|
||||
for k in range(len(matrix2)):
|
||||
result[i][j] += matrix1[i - start_i][k] * matrix2[k][j]
|
||||
|
||||
# Параллельное перемножение, использует ф-ю выше для каждого потока
|
||||
def matrixMultiplyWithThreads(matrix1, matrix2, thread_count):
|
||||
l1 = len(matrix1)
|
||||
l2 = len(matrix2)
|
||||
|
||||
# Кол-во строк на последний поток, если деление по потокам будет неточным
|
||||
last_rows_count = 0
|
||||
|
||||
if l1 % thread_count == 0:
|
||||
rows_per_thread = l1 // thread_count
|
||||
else:
|
||||
rows_per_thread = l1 // thread_count
|
||||
last_rows_count = l1 % thread_count
|
||||
|
||||
for i in range(thread_count):
|
||||
start_i = i * rows_per_thread
|
||||
|
||||
if (i - 1) == thread_count and last_rows_count > 0:
|
||||
end_i = start_i + last_rows_count
|
||||
else:
|
||||
end_i = start_i + rows_per_thread
|
||||
|
||||
args = []
|
||||
args.append((matrix1[start_i:end_i], matrix2, start_i, end_i))
|
||||
with Pool(processes = thread_count) as pool:
|
||||
pool.map(matrixMultiplySingleThread, args)
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
|
||||
sizes = [100, 300, 500]
|
||||
num_threads = [1, 5, 8, 12]
|
||||
|
||||
for size in sizes:
|
||||
matrix1 = generateSquareMatrix(size)
|
||||
matrix2 = generateSquareMatrix(size)
|
||||
start_time = time.time()
|
||||
matrixMultiplyStandard(matrix1, matrix2)
|
||||
end_time = time.time()
|
||||
print(f"Standard size {size}: {end_time - start_time}s")
|
||||
|
||||
for threads in num_threads:
|
||||
start_time = time.time()
|
||||
matrixMultiplyWithThreads(matrix1, matrix2, threads)
|
||||
end_time = time.time()
|
||||
print(f"Parallel size {size}, {threads} thread(s): {end_time - start_time}s")
|
||||
|
||||
print("-" * 100)
|
@ -1,18 +0,0 @@
|
||||
# Богданов Дмитрий ПИбд-42
|
||||
# Лабораторная работа №5
|
||||
|
||||
|
||||
## Функционал:
|
||||
- Были созданы методы генерации и отображения матриц заданного размера
|
||||
- Былы созданы методы для параллельного умножения матриц с использованием Pool
|
||||
- Был написан код для бенчмаркинга стандартного и параллельного перемножений
|
||||
|
||||
## Результаты выполнения:
|
||||
|
||||
![изображение 1](./images/Screenshot_1.png)
|
||||
|
||||
### Вывод:
|
||||
Использование нескольких потоков приносит значительный выигрыш только на крупных матрицах, в то время как на матрицах меньшего размера больше времени уходит на менеджмент потоков. Это особенно заметно при сравнении результатов выполнения вычислений на матрице размером 100х100.
|
||||
|
||||
|
||||
## [Видео](https://drive.google.com/file/d/1iPfLjzLiWwmszPH_KJ40vFCX-iWDLm1S/view?usp=sharing)
|
Before Width: | Height: | Size: 63 KiB |
@ -1,20 +0,0 @@
|
||||
# PostgreSQL конфигурация
|
||||
POSTGRES_DB=mediawiki
|
||||
POSTGRES_USER=wikiuser
|
||||
POSTGRES_PASSWORD=secret
|
||||
|
||||
# MediaWiki конфигурация
|
||||
MEDIAWIKI_DB_NAME=mediawiki
|
||||
MEDIAWIKI_DB_USER=wikiuser
|
||||
MEDIAWIKI_DB_PASSWORD=secret
|
||||
|
||||
# WordPress конфигурация
|
||||
WORDPRESS_DB_NAME=wordpress
|
||||
WORDPRESS_DB_USER=wpuser
|
||||
WORDPRESS_DB_PASSWORD=secret
|
||||
|
||||
# Порты
|
||||
MEDIAWIKI_PORT=8080
|
||||
WORDPRESS_PORT=8081
|
||||
GITEA_WEB_PORT=3000
|
||||
GITEA_SSH_PORT=222
|
0
bondarenko_max_lab_1/.gitignore
vendored
@ -1,33 +0,0 @@
|
||||
# Лабораторная работа 1 - Знакомство с Docker и Docker Compose
|
||||
### ПИбд-42 || Бондаренко Максим
|
||||
|
||||
# Описание работы
|
||||
|
||||
> Цель
|
||||
Изучение современных технологий контейнеризации.
|
||||
|
||||
> Задачи
|
||||
1. Установка Docker Desktop.
|
||||
2. Принципы Docker.
|
||||
3. Изучение Docker Compose.
|
||||
4. Разворачивание сервисов.
|
||||
5. Оформление отчёта.
|
||||
|
||||
> Ход выполнения работы
|
||||
1. Открыть документацию docker и страницу на habr
|
||||
2. Скачать и установить docker desktop
|
||||
3. Смотрим на docker hub как поднять с помощью docker-compose -> gitea, mediawiki, postgresql
|
||||
4. Запускаем в терминале 'docker-compose up'
|
||||
4. Исправляем ошибки
|
||||
5. Записываем видео
|
||||
6. pushим ветку на git
|
||||
7. кидаем mrку (merge request)
|
||||
|
||||
> Инструкция по запуску
|
||||
1. Скачать и установить Docker, если ещё не сделано
|
||||
2. Перейти в bondarenko_max_lab_1 (cd ./bondarenko_max_lab_1/)
|
||||
3. Выполнить в терминале 'docker-compose up'
|
||||
4. Проверить порты, на которых docker поднял контейнеры
|
||||
|
||||
> Видео демонстрация работы
|
||||
https://cloud.mail.ru/public/xHc2/JorYr5nDg
|
@ -1,46 +0,0 @@
|
||||
# Версия файла docker-compose, которую мы используем
|
||||
version: '3.8'
|
||||
|
||||
# Определение сервисов
|
||||
# Все последующие готовые образы в services будут взяты с Docker Hub -> image: название:версия
|
||||
# Далее в services будут использоваться переменные окружения из .env -> ${Переменная_среды}
|
||||
# Схема пробросов портов -> ports: внешний порт на хосте:внутренний порт в контейнере
|
||||
services:
|
||||
db:
|
||||
image: postgres:latest # Готовый образ postgres
|
||||
environment:
|
||||
- POSTGRES_DB=${POSTGRES_DB} # Имя БД
|
||||
- POSTGRES_USER=${POSTGRES_USER} # Пользователь БД
|
||||
- POSTGRES_PASSWORD=${POSTGRES_PASSWORD} # Пароль пользователя БД
|
||||
volumes:
|
||||
- db_data:/var/lib/postgresql/data # Монтирование volume для постоянного хранения данных БД
|
||||
|
||||
mediawiki:
|
||||
image: mediawiki:latest # Готовый образ mediawiki
|
||||
ports:
|
||||
- "${MEDIAWIKI_PORT}:80" # Проброс порта
|
||||
volumes:
|
||||
- mediawiki_data:/var/www/html # Монтирование volume для постоянного хранения данных
|
||||
environment:
|
||||
- MEDIAWIKI_DB_HOST=db # Хост БД
|
||||
- MEDIAWIKI_DB_NAME=${MEDIAWIKI_DB_NAME} # Имя БД для MediaWiki
|
||||
- MEDIAWIKI_DB_USER=${MEDIAWIKI_DB_USER} # Пользователь БД
|
||||
- MEDIAWIKI_DB_PASSWORD=${MEDIAWIKI_DB_PASSWORD} # Пароль пользователя БД
|
||||
|
||||
gitea:
|
||||
image: gitea/gitea:latest # Готовый образ gitea
|
||||
ports:
|
||||
- "${GITEA_WEB_PORT}:3000" # Проброс веб-порта
|
||||
- "${GITEA_SSH_PORT}:22" # Проброс SSH-порта
|
||||
volumes:
|
||||
- gitea_data:/data # Монтирование volume для постоянного хранения данных
|
||||
environment:
|
||||
- USER_UID=1000 # UID пользователя внутри контейнера
|
||||
- USER_GID=1000 # GID пользователя внутри контейнера
|
||||
|
||||
# Определение volumes для хранения данных вне контейнеров
|
||||
volumes:
|
||||
mediawiki_data:
|
||||
wordpress_data:
|
||||
gitea_data:
|
||||
db_data:
|
@ -1,26 +0,0 @@
|
||||
# Отчет. Лабораторная работа 6
|
||||
|
||||
## Описание
|
||||
В рамках лабораторной работы была реализована программа, которая производит вычисление детерминанта матрицы
|
||||
с применением последовательного и паралелльного алгоритма.
|
||||
|
||||
В качестве способа нахождения определителя матрицы был выбран алгоритм нахождения путем разложения по столбцу (строке).
|
||||
При данном подходе определитель находится как сумма произведений элементов выбранной строки на их алгебраические дополнения.
|
||||
Была произведена небольшая оптимизация алгоритма - выбор строки для разложения основывался на количестве нулевых элементов в ней.
|
||||
Чем больше нулей в строке - тем меньше будет выполняться подзадач в алгоритме.
|
||||
|
||||
Результаты представлены на следующих изображениях:
|
||||
|
||||
![results](images/results.PNG)
|
||||
|
||||
Как мы можем увидеть, производительность паралелльной реализации на маленьких матрицах ниже, чем у последовательного подхода,
|
||||
это связано с дополнительными действиями по созданию и управлению потоками. Однако с увеличением размера матриц мы можем
|
||||
наблюдать увеличение производительности. Но на больших размерах (от 12х12) матриц алгоритм становится довольно медленным
|
||||
вне зависимости от применения многопоточности.
|
||||
|
||||
## Как запустить
|
||||
Необходимо иметь установленную JDK 21. Можно воспользоваться встроенным в нее компилятором (javac), а затем запустить исполняемый файл (java)
|
||||
или запускать из среды разработки.
|
||||
|
||||
## Видео-отчет
|
||||
Работоспособность лабораторной работы можно оценить в следующем [видео](https://disk.yandex.ru/i/-sWDKdW3Q-vbHg).
|
Before Width: | Height: | Size: 62 KiB |
38
borschevskaya_anna_lab_6/matrix-det/.gitignore
vendored
@ -1,38 +0,0 @@
|
||||
target/
|
||||
!.mvn/wrapper/maven-wrapper.jar
|
||||
!**/src/main/**/target/
|
||||
!**/src/test/**/target/
|
||||
|
||||
### IntelliJ IDEA ###
|
||||
.idea/modules.xml
|
||||
.idea/jarRepositories.xml
|
||||
.idea/compiler.xml
|
||||
.idea/libraries/
|
||||
*.iws
|
||||
*.iml
|
||||
*.ipr
|
||||
|
||||
### Eclipse ###
|
||||
.apt_generated
|
||||
.classpath
|
||||
.factorypath
|
||||
.project
|
||||
.settings
|
||||
.springBeans
|
||||
.sts4-cache
|
||||
|
||||
### NetBeans ###
|
||||
/nbproject/private/
|
||||
/nbbuild/
|
||||
/dist/
|
||||
/nbdist/
|
||||
/.nb-gradle/
|
||||
build/
|
||||
!**/src/main/**/build/
|
||||
!**/src/test/**/build/
|
||||
|
||||
### VS Code ###
|
||||
.vscode/
|
||||
|
||||
### Mac OS ###
|
||||
.DS_Store
|
@ -1,17 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project xmlns="http://maven.apache.org/POM/4.0.0"
|
||||
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
|
||||
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
|
||||
<modelVersion>4.0.0</modelVersion>
|
||||
|
||||
<groupId>ru.uni.rvip</groupId>
|
||||
<artifactId>matrix-det</artifactId>
|
||||
<version>1.0-SNAPSHOT</version>
|
||||
|
||||
<properties>
|
||||
<maven.compiler.source>21</maven.compiler.source>
|
||||
<maven.compiler.target>21</maven.compiler.target>
|
||||
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
|
||||
</properties>
|
||||
|
||||
</project>
|
@ -1,155 +0,0 @@
|
||||
package ru.uni.rvip;
|
||||
|
||||
import java.util.ArrayList;
|
||||
import java.util.Arrays;
|
||||
import java.util.Comparator;
|
||||
import java.util.Random;
|
||||
import java.util.concurrent.ExecutionException;
|
||||
import java.util.concurrent.ExecutorService;
|
||||
import java.util.concurrent.Executors;
|
||||
import java.util.concurrent.Future;
|
||||
import java.util.stream.IntStream;
|
||||
|
||||
public class Main {
|
||||
|
||||
private static final ExecutorService executor = Executors.newFixedThreadPool(8);
|
||||
|
||||
public static void main(String[] args) {
|
||||
int size = 12;
|
||||
|
||||
for (int i = 5; i <= size; i += 2) {
|
||||
System.out.printf("Размер матриц %dx%d\n", i, i);
|
||||
|
||||
var matrix = createRandomMatrix(i);
|
||||
|
||||
var startTime = System.currentTimeMillis();
|
||||
var result = findDeterminant(matrix);
|
||||
var timeOfExecution = System.currentTimeMillis() - startTime;
|
||||
System.out.printf("Детерминант матрицы = %f\n", result);
|
||||
System.out.printf("Время нахождения детерминанта с помощью последовательного алгоритма: %d ms\n", timeOfExecution);
|
||||
|
||||
startTime = System.currentTimeMillis();
|
||||
findDeterminantParallel(matrix);
|
||||
timeOfExecution = System.currentTimeMillis() - startTime;
|
||||
System.out.printf("Время нахождения детерминанта с помощью параллельного алгоритма: %d ms\n", timeOfExecution);
|
||||
}
|
||||
executor.shutdown();
|
||||
}
|
||||
|
||||
private static double findDeterminant(double[][] matrix) {
|
||||
int rows = matrix.length;
|
||||
int n = matrix[0].length;
|
||||
if (rows == n && rows == 1) {
|
||||
return matrix[0][0];
|
||||
}
|
||||
if (rows == n && rows == 2) {
|
||||
return matrix[0][0] * matrix[1][1] - matrix[0][1] * matrix[1][0];
|
||||
}
|
||||
|
||||
if (rows == n && rows == 3) {
|
||||
return matrix[0][0] * matrix[1][1] * matrix[2][2] + matrix[0][1] * matrix[1][2] * matrix[2][0] + matrix[0][2] * matrix[1][0] * matrix[2][1]
|
||||
- (matrix[0][2] * matrix[1][1] * matrix[2][0] + matrix[1][0] * matrix[0][1] * matrix[2][2] + matrix[0][0] * matrix[1][2] * matrix[2][1]);
|
||||
}
|
||||
double[][] temporary;
|
||||
double det = 0;
|
||||
// поиск наиболее подходящей строки
|
||||
int indexWithMaxZeros = IntStream.range(0, matrix.length)
|
||||
.boxed()
|
||||
.max(Comparator.comparingInt(i ->
|
||||
(int) Arrays.stream(matrix[i]).filter(x -> x == 0).count()))
|
||||
.orElse(-1);
|
||||
|
||||
double[] maxZerosCountRow = matrix[indexWithMaxZeros];
|
||||
|
||||
|
||||
for (int i = 0; i < n; i++) {
|
||||
if (maxZerosCountRow[i] > 0) {
|
||||
temporary = getSubmatrix(matrix, rows, n, i, indexWithMaxZeros);
|
||||
det += maxZerosCountRow[i] * Math.pow(-1, i) * findDeterminant(temporary);
|
||||
}
|
||||
}
|
||||
|
||||
return det;
|
||||
}
|
||||
|
||||
private static double findDeterminantParallel(double[][] matrix) {
|
||||
int rows = matrix.length;
|
||||
int n = matrix[0].length;
|
||||
if (rows == n && rows == 1) {
|
||||
return matrix[0][0];
|
||||
}
|
||||
if (rows == n && rows == 2) {
|
||||
return matrix[0][0] * matrix[1][1] - matrix[0][1] * matrix[1][0];
|
||||
}
|
||||
if (rows == n && rows == 3) {
|
||||
return matrix[0][0] * matrix[1][1] * matrix[2][2] + matrix[0][1] * matrix[1][2] * matrix[2][0] + matrix[0][2] * matrix[1][0] * matrix[2][1]
|
||||
- (matrix[0][2] * matrix[1][1] * matrix[2][0] + matrix[1][0] * matrix[0][1] * matrix[2][2] + matrix[0][0] * matrix[1][2] * matrix[2][1]);
|
||||
}
|
||||
double det = 0;
|
||||
// поиск наиболее подходящей строки
|
||||
int indexWithMaxZeros = IntStream.range(0, matrix.length)
|
||||
.boxed()
|
||||
.max(Comparator.comparingInt(i ->
|
||||
(int) Arrays.stream(matrix[i]).filter(x -> x == 0).count()))
|
||||
.orElse(-1);
|
||||
|
||||
double[] maxZerosCountRow = matrix[indexWithMaxZeros];
|
||||
var futures = new ArrayList<Future<Double>>();
|
||||
for (int i = 0; i < n; i++) {
|
||||
// нахождение подматрицы
|
||||
final var finalRow = i;
|
||||
|
||||
futures.add(executor.submit(() -> {
|
||||
final var temporary = getSubmatrix(matrix, rows, n, finalRow, indexWithMaxZeros);
|
||||
return maxZerosCountRow[finalRow] * Math.pow(-1, finalRow) * findDeterminant(temporary);
|
||||
}));
|
||||
}
|
||||
|
||||
try {
|
||||
for (var future : futures) {
|
||||
det += future.get();
|
||||
}
|
||||
} catch (InterruptedException | ExecutionException e) {
|
||||
System.out.println("Возникла ошибка во время многопоточного нахождения определителя матрицы");
|
||||
return -1;
|
||||
}
|
||||
return det;
|
||||
}
|
||||
|
||||
private static double[][] getSubmatrix(double[][] matrix, int rows, int n, int col, int row) {
|
||||
final var temporary = new double[rows - 1][n - 1];
|
||||
for (int j = 0; j < rows; j++) {
|
||||
if (j == row) continue;
|
||||
|
||||
for (int k = 0; k < n; k++) {
|
||||
if (k == col) continue;
|
||||
|
||||
//temporary[j][k] = matrix[j][k];
|
||||
temporary[j < row ? j : j - 1][k < col ? k : k - 1] = matrix[j][k];
|
||||
}
|
||||
}
|
||||
return temporary;
|
||||
}
|
||||
|
||||
private static double[][] createRandomMatrix(Integer size) {
|
||||
var matrix = new double[size][size];
|
||||
var random = new Random();
|
||||
for (var i = 0; i < size; i++) {
|
||||
for (var j = 0; j < size; j++) {
|
||||
matrix[i][j] = random.nextInt(50);
|
||||
}
|
||||
}
|
||||
return matrix;
|
||||
}
|
||||
|
||||
private static void printMatrix(double[][] matrix) {
|
||||
for (double[] ints : matrix) {
|
||||
for (double elem : ints) {
|
||||
System.out.printf("%5f\t", elem);
|
||||
}
|
||||
System.out.println();
|
||||
}
|
||||
}
|
||||
}
|
||||
|
||||
|
@ -1,37 +0,0 @@
|
||||
# Отчет. Лабораторная работа 7
|
||||
|
||||
## Балансировка нагрузки в распределённых системах при помощи открытых технологий на примерах
|
||||
|
||||
### Какие алгоритмы и методы используются для балансировки нагрузки?
|
||||
В распределенных системах балансировка нагрузки может осуществляться на разных уровнях:
|
||||
- балансировка нагрузки на сетевом уровне
|
||||
- балансировка нагрузки на транспортном уровне
|
||||
- балансировка нагрузки на прикладном уровне
|
||||
|
||||
На сетевом уровне балансировка может реализовываться с помощью таких алгоритмов, как Round Robin, Weighted Round Robin или Least Connections.
|
||||
Алгоритм Round Robin основывается на принципе выделения одному доменному имени несколько IP, которые выбираются
|
||||
при поступлении запроса по очереди.
|
||||
|
||||
Weighted Round Robin - усовершенствованный алгоритм Round Robin, который подразумевает указание весов каждому серверу
|
||||
в зависимости от доступных мощностей.
|
||||
|
||||
Алгоритм Least Connections вносит в предыдущий алгоритм еще одно условие выбора сервера - количество активных подключений к нему,
|
||||
избегая перегруженности имеющихся узлов.
|
||||
|
||||
### Какие открытые технологии существуют для балансировки нагрузки?
|
||||
Среди самых популярных открытых технологий можно выделить Nginx и Kubernetes. Nginx позволяет управлять нагрузкой на
|
||||
компоненты системы с помощью различных алгоритмов и перенаправляет запросы от клиента к сервисам, выстпая в качестве реверс-прокси.
|
||||
Kubernetes представляет собой платформу для управления контейнерами, которая включает встроенные механизмы для балансировки
|
||||
нагрузки между подами.
|
||||
### Как осуществляется балансировка нагрузки на базах данных?
|
||||
|
||||
Можно уменьшить нагрузку на базу данных путем использования механизма кэширования на уровне приложения
|
||||
или с помощью нереляционных БД (Redis и др.). Или с помощью шардирования данных, размещенных в базе.
|
||||
|
||||
Для балансировки нагрузки на базах данных на прикладном уровне, например, существует утилита pgpool —
|
||||
прокси между клиентом и сервером СУБД PostgreSQL, с помощью которого задаются правила перенаправления
|
||||
запросов к БД в зависимости от их содержания (чтение/запись).
|
||||
### Реверс-прокси как один из элементов балансировки нагрузки.
|
||||
Реверс-прокси перенаправляет входящие запросы на соотвествующие сервисы, может выступать при этом и в качестве балансировщика нагрузки, реализуя один из ранее озвученных алгоритмов.
|
||||
Как уже было сказано, примером такого компонента РС может выступать Nginx, в котором с помощью настройки конфигурационного файла можно указать как настройки проксирования,
|
||||
так и добавить логику балансировки.
|
@ -1,30 +0,0 @@
|
||||
# Отчет. Лабораторная работа 8
|
||||
|
||||
### Популярность распределенных систем (РС)
|
||||
Распределенные системы обладают рядом преимуществ, которые побуждают разработчиков адаптировать уже существующие решения к такой архитектуре (и переписывать монолит на микросервисы).
|
||||
Данный подход позволяет сделать систему более отказоустойчивой, так как её компоненты становятся независимыми друг от друга.
|
||||
Особенно это важно для сложных систем, для которых появляется возможность масштабировать отдельные узлы РС.
|
||||
Также при разработке распределенных систем удобно распределяются задачи между командами разработки и есть возможность
|
||||
использовать свой стек технологий для каждого сервиса.
|
||||
|
||||
### Системы оркестрации
|
||||
Системы оркестрации автоматизируют развертывание, масштабирование и управление контейнерами, что значительно упрощает
|
||||
разработку и сопровождение. Однако вместе с тем они накладывают определенные требования к участникам команды разработки,
|
||||
которым необходимо иметь хотя бы базовые знания об используемой технологии.
|
||||
|
||||
### Очереди сообщений
|
||||
Очереди обработки сообщений позволяют организовать асинхронное взаимодействие между компонентами системы.
|
||||
Такой подход важен, если процесс при отправке сообщения не должен блокироваться, а ответ необязательно должен быть
|
||||
получен и обработан мгновенно. Сообщения, которые передаются по очередям, могут быть некоторыми событиями или командами,
|
||||
на которые могут отреагировать сразу несколько сервисов, подписанных на очередь.
|
||||
|
||||
### Преимущества и недостатки РС
|
||||
К преимуществам РС, как уже было сказано выше, можно отнести масштабируемость, отказоустойчивость, гибкость внедрения новых функциональностей,
|
||||
а к недостаткам - сложности отладки возникающих проблем и тестирования,
|
||||
возникающие сетевые задержки при прохождении запроса через несколько сервисов.
|
||||
|
||||
### Параллелизм: за и против
|
||||
Параллельные вычисления нужно применять там, где это действительно нужно. Например, при обработке больших данных, при возможности
|
||||
разбиения задачи на несколько независимых подзадач.
|
||||
Однако в случаях, где важна последовательность операций,
|
||||
параллелизм может привести к усложнению логики приложения и ошибкам, а при малом объеме данных для обработки параллелизм может только ухудшить производительность.
|
38
dozorova_alena_lab_5/.gitignore
vendored
@ -1,38 +0,0 @@
|
||||
|
||||
/dozorova_alena_lab_2/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp1/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp1/bin
|
||||
/dozorova_alena_lab_2/ConsoleApp1/obj
|
||||
/dozorova_alena_lab_2/ConsoleApp1/Properties/PublishProfiles
|
||||
/dozorova_alena_lab_2/ConsoleApp2/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp2/bin
|
||||
/dozorova_alena_lab_2/ConsoleApp2/obj
|
||||
/dozorova_alena_lab_5/ConsoleApp1/.vs
|
||||
/dozorova_alena_lab_5/ConsoleApp1/bin
|
||||
/dozorova_alena_lab_5/ConsoleApp1/obj
|
||||
/dozorova_alena_lab_3/PostService/.vs
|
||||
/dozorova_alena_lab_3/WorkerService/.vs
|
||||
/dozorova_alena_lab_4/Receive/bin
|
||||
/dozorova_alena_lab_4/Receive/obj
|
||||
/dozorova_alena_lab_4/Send/bin
|
||||
/dozorova_alena_lab_4/Send/obj
|
||||
/dozorova_alena_lab_4/EmitLog/.vs
|
||||
/dozorova_alena_lab_4/EmitLog/obj
|
||||
/dozorova_alena_lab_4/NewTask/.vs
|
||||
/dozorova_alena_lab_4/NewTask/bin
|
||||
/dozorova_alena_lab_4/NewTask/obj
|
||||
/dozorova_alena_lab_4/ReceiveLogs/obj
|
||||
/dozorova_alena_lab_4/Worker/.vs
|
||||
/dozorova_alena_lab_4/Worker/bin
|
||||
/dozorova_alena_lab_4/Worker/obj
|
||||
/dozorova_alena_lab_4/EmitLog/bin
|
||||
/dozorova_alena_lab_4/ReceiveLogs/.vs
|
||||
/dozorova_alena_lab_4/ReceiveLogs/bin
|
||||
/dozorova_alena_lab_4/ConsumerDelay/.vs
|
||||
/dozorova_alena_lab_4/ConsumerDelay/obj
|
||||
/dozorova_alena_lab_4/ConsumerDelay/Properties
|
||||
/dozorova_alena_lab_4/ConsumerSimple/.vs
|
||||
/dozorova_alena_lab_4/ConsumerSimple/obj
|
||||
/dozorova_alena_lab_4/Publisher/.vs
|
||||
/dozorova_alena_lab_4/Publisher/bin
|
||||
/dozorova_alena_lab_4/Publisher/objs
|
@ -1,10 +0,0 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net6.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
</Project>
|
@ -1,25 +0,0 @@
|
||||
|
||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
||||
# Visual Studio Version 17
|
||||
VisualStudioVersion = 17.10.35004.147
|
||||
MinimumVisualStudioVersion = 10.0.40219.1
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsoleApp1", "ConsoleApp1.csproj", "{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}"
|
||||
EndProject
|
||||
Global
|
||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
||||
Debug|Any CPU = Debug|Any CPU
|
||||
Release|Any CPU = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{FF70279D-C317-4A3D-B2C2-0FFD9FB4B22E}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(SolutionProperties) = preSolution
|
||||
HideSolutionNode = FALSE
|
||||
EndGlobalSection
|
||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
||||
SolutionGuid = {1501FAF9-199B-40BA-9918-AC5952D318BE}
|
||||
EndGlobalSection
|
||||
EndGlobal
|
@ -1,84 +0,0 @@
|
||||
|
||||
using System.Diagnostics;
|
||||
internal class Program
|
||||
{
|
||||
private static void Main(string[] args)
|
||||
{
|
||||
Console.WriteLine("");
|
||||
|
||||
var value = new int[] { 100, 300, 500 };
|
||||
|
||||
foreach (var i in value)
|
||||
{
|
||||
var a = Create(i, i);
|
||||
var b = Create(i, i);
|
||||
|
||||
List<long> times = new() {};
|
||||
|
||||
for (int j = 1; j <= 10; j++)
|
||||
{
|
||||
var sw = new Stopwatch();
|
||||
sw.Start();
|
||||
|
||||
MultiplyCreateTask(a, b, j);
|
||||
|
||||
sw.Stop();
|
||||
times.Add(sw.ElapsedMilliseconds);
|
||||
}
|
||||
Console.WriteLine("Результаты вычисления для количества потоков от 1 до 5 для матрицы cо стороной "+i+": "+string.Join("\t", times));
|
||||
}
|
||||
|
||||
}
|
||||
|
||||
private static int[,] Create(int x, int y)
|
||||
{
|
||||
var rnd = new Random();
|
||||
|
||||
var res = new int[y, x];
|
||||
|
||||
for (int i = 0; i < y; i++)
|
||||
{
|
||||
for (int j = 0; j < x; j++)
|
||||
{
|
||||
res[i, j] = rnd.Next(0, 100);
|
||||
}
|
||||
}
|
||||
return res;
|
||||
}
|
||||
|
||||
private static int[,] MultiplyCreateTask(int[,] matrix1, int[,] matrix2, int maxCount)
|
||||
{
|
||||
int[,] res = new int[matrix1.GetLength(0), matrix2.GetLength(1)];
|
||||
|
||||
var semaphore = new SemaphoreSlim(maxCount, maxCount);
|
||||
|
||||
for (int i = 0; i < matrix1.GetLength(0); i++)
|
||||
{
|
||||
for (int j = 0; j < matrix2.GetLength(1); j++)
|
||||
{
|
||||
int ci = i;
|
||||
int cj = j;
|
||||
|
||||
var task = Task.Run(() =>
|
||||
{
|
||||
try
|
||||
{
|
||||
semaphore.Wait();
|
||||
|
||||
res[ci, cj] = CalculateValue(matrix1, matrix2, ci, cj);
|
||||
}
|
||||
finally
|
||||
{
|
||||
semaphore.Release();
|
||||
}
|
||||
});
|
||||
|
||||
}
|
||||
}
|
||||
semaphore.Wait(maxCount);
|
||||
return res;
|
||||
}
|
||||
|
||||
private static int CalculateValue(int[,] matrix1, int[,] matrix2, int i, int j)
|
||||
=> Enumerable.Range(0, matrix1.GetLength(1)).Sum(k => matrix1[i, k] * matrix2[k, j]);
|
||||
}
|
@ -1,24 +0,0 @@
|
||||
# Лабораторная работа 5
|
||||
В рамках этой работы проверяется скорость расчета умножения двух матриц в некоторое количество потоков
|
||||
## Описание
|
||||
Основной принцип умножения матриц: строки умножаются на столбцы, таким образом получаются элементы. Для распараллеливания этого процесса вычисление некоторых объектов матрицы выносят в отдельные потоки, которые работают параллельно
|
||||
|
||||
## Запуск
|
||||
Для проверки гипотезы и реализации параллельного умножения в консоли на языке c# был реализован тестовый контур: для каждого вида матриц (100*100, 300*300 и 500*500) запускался процесс вычисления произведения в количестве потоков от 1 до 5 с использованием SsemaphoreSlim, который контролировал выполнение в заданном количестве потоков. Для каждого вычисления засекалось время в миллисекундах.
|
||||
## Результаты
|
||||
Что мы получили
|
||||
<br/>
|
||||
![Результаты вычислений 1](image.png)
|
||||
<br/>
|
||||
Результаты спорные, так как при повышении количества потоков нельзя сказать, что повышается скорость вычислений. Это связано с тем, что работа с потоками сама по сбе требует ресурсов и времени.
|
||||
Повысим количестов потоков до 10:
|
||||
<br/>
|
||||
![Результаты вычислений 2](image-1.png)
|
||||
<br/>
|
||||
Для небольшой матрицы видна разница в сравнении с прошлым результатом, но не так сильно, как для больших. Повышение количества потоков позволило существенно сократить время вычислений
|
||||
|
||||
## Видеодемонстрация
|
||||
Видедемонстрация по [адресу](https://drive.google.com/file/d/1mxhCsjLPg2zY7lnCj7sLxr5lDJQJX9xr/view?usp=sharing)
|
||||
|
||||
|
||||
|
Before Width: | Height: | Size: 24 KiB |
Before Width: | Height: | Size: 21 KiB |
12
dozorova_alena_lab_6/.gitignore
vendored
@ -1,12 +0,0 @@
|
||||
|
||||
/dozorova_alena_lab_2/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp1/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp1/bin
|
||||
/dozorova_alena_lab_2/ConsoleApp1/obj
|
||||
/dozorova_alena_lab_2/ConsoleApp1/Properties/PublishProfiles
|
||||
/dozorova_alena_lab_2/ConsoleApp2/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp2/bin
|
||||
/dozorova_alena_lab_2/ConsoleApp2/obj
|
||||
/dozorova_alena_lab_6/ConsoleApp1/.vs
|
||||
/dozorova_alena_lab_6/ConsoleApp1/bin
|
||||
/dozorova_alena_lab_6/ConsoleApp1/obj
|
@ -1,10 +0,0 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net6.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
</Project>
|
@ -1,25 +0,0 @@
|
||||
|
||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
||||
# Visual Studio Version 17
|
||||
VisualStudioVersion = 17.10.35004.147
|
||||
MinimumVisualStudioVersion = 10.0.40219.1
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsoleApp1", "ConsoleApp1.csproj", "{29269567-7466-4C99-BEEF-F5766BDDFB24}"
|
||||
EndProject
|
||||
Global
|
||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
||||
Debug|Any CPU = Debug|Any CPU
|
||||
Release|Any CPU = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{29269567-7466-4C99-BEEF-F5766BDDFB24}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(SolutionProperties) = preSolution
|
||||
HideSolutionNode = FALSE
|
||||
EndGlobalSection
|
||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
||||
SolutionGuid = {EDED6E1D-0A86-43F9-94EA-6ADCC1FA1B42}
|
||||
EndGlobalSection
|
||||
EndGlobal
|
@ -1,55 +0,0 @@
|
||||
using System;
|
||||
using System.Collections.Generic;
|
||||
using System.Linq;
|
||||
using System.Numerics;
|
||||
using System.Text;
|
||||
using System.Threading.Tasks;
|
||||
|
||||
namespace ConsoleApp1
|
||||
{
|
||||
public static class Extention
|
||||
{
|
||||
public static int[,] CreateMatrixWithoutColumn(this int[,] matrix, int column)
|
||||
{
|
||||
var result = new int[matrix.GetLength(0), matrix.GetLength(1) - 1];
|
||||
for (int i = 0; i < matrix.GetLength(0); i++)
|
||||
{
|
||||
for (int j = 0; j < matrix.GetLength(1) - 1; j++)
|
||||
{
|
||||
result[i, j] = j < column ? matrix[i, j] : matrix[i, j + 1];
|
||||
}
|
||||
}
|
||||
return result;
|
||||
}
|
||||
|
||||
public static int[,] CreateMatrixWithoutRow(this int[,] matrix, int row)
|
||||
{
|
||||
var result = new int[matrix.GetLength(0) - 1, matrix.GetLength(1)];
|
||||
for (int i = 0; i < matrix.GetLength(0) - 1; i++)
|
||||
{
|
||||
for (int j = 0; j < matrix.GetLength(1); j++)
|
||||
{
|
||||
result[i, j] = i < row ? matrix[i, j] : matrix[i + 1, j];
|
||||
}
|
||||
}
|
||||
|
||||
return result;
|
||||
}
|
||||
|
||||
public static double CalculateDeterminant(this int[,] matrix)
|
||||
{
|
||||
if (matrix.GetLength(0) == 2)
|
||||
{
|
||||
return matrix[0, 0] * matrix[1, 1] - matrix[0, 1] * matrix[1, 0];
|
||||
}
|
||||
double result = 0;
|
||||
for (var j = 0; j < matrix.GetLength(0); j++)
|
||||
{
|
||||
result += (j % 2 == 1 ? 1 : -1) * matrix[1, j] *
|
||||
matrix.CreateMatrixWithoutColumn(j).CreateMatrixWithoutRow(1).CalculateDeterminant();
|
||||
}
|
||||
//Console.WriteLine("Ко мне пришли с размером " + matrix.GetLength(0));
|
||||
return result;
|
||||
}
|
||||
}
|
||||
}
|
@ -1,87 +0,0 @@
|
||||
|
||||
using ConsoleApp1;
|
||||
using System.Data.Common;
|
||||
using System.Diagnostics;
|
||||
internal class Program
|
||||
{
|
||||
private static void Main(string[] args)
|
||||
{
|
||||
var value = new int[3] {100, 300, 500 };
|
||||
|
||||
foreach(var i in value)
|
||||
{
|
||||
var a = CreateMatrix(i, i);
|
||||
var b = CreateMatrix(i, i);
|
||||
|
||||
List<long> times = new() {};
|
||||
Console.WriteLine("Для пяти потоков: ");
|
||||
for (int j = 1; j <= 5; j++)
|
||||
{
|
||||
var sw = new Stopwatch();
|
||||
sw.Start();
|
||||
|
||||
Calculate(a, j);
|
||||
|
||||
sw.Stop();
|
||||
times.Add(sw.ElapsedTicks);
|
||||
}
|
||||
Console.WriteLine("Количество тиков для вычисления матрицы стороной "+i+": "+string.Join("\t", times));
|
||||
|
||||
Console.WriteLine("Для десяти потоков: ");
|
||||
for (int j = 1; j <= 10; j++)
|
||||
{
|
||||
var sw = new Stopwatch();
|
||||
sw.Start();
|
||||
|
||||
Calculate(a, j);
|
||||
|
||||
sw.Stop();
|
||||
times.Add(sw.ElapsedTicks);
|
||||
}
|
||||
Console.WriteLine("Количество тиков для вычисления матрицы стороной " + i + ": " + string.Join("\t", times));
|
||||
|
||||
}
|
||||
}
|
||||
|
||||
private static int[,] CreateMatrix(int x, int y)
|
||||
{
|
||||
var rnd = new Random();
|
||||
|
||||
var res = new int[y, x];
|
||||
|
||||
for (int i = 0; i < y; i++)
|
||||
{
|
||||
for (int j = 0; j < x; j++)
|
||||
{
|
||||
res[i, j] = rnd.Next(0, 100);
|
||||
}
|
||||
}
|
||||
return res;
|
||||
}
|
||||
|
||||
private static double Calculate(int[,] matrix, int maxTask)
|
||||
{
|
||||
double res = 0;
|
||||
|
||||
var semaphore = new SemaphoreSlim(maxTask, maxTask);
|
||||
|
||||
for (var j = 0; j < matrix.GetLength(0) - 1; j++)
|
||||
{
|
||||
_ = Task.Run(() =>
|
||||
{
|
||||
try
|
||||
{
|
||||
semaphore.Wait();
|
||||
res += (j % 2 == 1 ? 1 : -1) * matrix[1, j] *
|
||||
matrix.CreateMatrixWithoutColumn(j).
|
||||
CreateMatrixWithoutRow(1).CalculateDeterminant();
|
||||
}
|
||||
finally { semaphore.Release(); }
|
||||
});
|
||||
|
||||
}
|
||||
|
||||
semaphore.Wait(maxTask);
|
||||
return res;
|
||||
}
|
||||
}
|
@ -1,18 +0,0 @@
|
||||
# Лабораторная работа 6
|
||||
В рамках данной работы мы изучаем выигрыш при распаралелливании процесса вычисления определителя матрицы
|
||||
## Описание
|
||||
Для вычисления определителя мы используем следующую формулу:
|
||||
![alt text](image.png)
|
||||
где ![alt text](image-1.png) - определитель матрицы, полученной из исходной вырезанием 1 строки и j столбца.
|
||||
|
||||
## Запуск
|
||||
По опыту прошлой лабораторной работы, в консольном приложении был реализован алгоритм вычисление детерминанта и запущено сравнение затраченного времени (в тиках) для 5 и 10 потоков.
|
||||
## Результаты
|
||||
Результаты:
|
||||
<br/>
|
||||
![Результат](image-2.png)
|
||||
<br/>
|
||||
Как мы видим, подтверждаются выводы прошлой лабораторной работы: для небольших матриц выигрыш несущественнен из-за затраты времени на работу с потоком, а для больших эта разница в скорости уже существенна
|
||||
|
||||
## Видеодемонстрация
|
||||
Видеодемонстрация по [адресу](https://drive.google.com/file/d/1dOMaRcTRiPwhn2E4ok1WUOeh_dD9NyDQ/view?usp=sharing)
|
Before Width: | Height: | Size: 556 B |
Before Width: | Height: | Size: 67 KiB |
Before Width: | Height: | Size: 2.3 KiB |
@ -1,17 +0,0 @@
|
||||
**Балансировка нагрузки** предполагает равномерную нагрузку вычислительных узлов (процессора многопроцессорной ЭВМ или компьютера в сети)
|
||||
|
||||
Следует различать _статическую_ и _динамическую_ балансировки, где первая выполняется до начала выполнения распределенного приложения, а вторая – в процессе.
|
||||
Приведем примеры алгоритмов балансировки:
|
||||
* *Круговой алгоритм*: - распределение входящих запросов между несколькими серверами в порядке циклической очередности. Модификации:
|
||||
- *Взвешенный циклический перебор*, учитывающий мощность серверов
|
||||
- *Динамический круговой алгоритм*, который учитывает текущую нагрузку на серверы при распределении запросов.
|
||||
* *Наименьшее количество соединений* - направление входящих запросов на сервер с наименьшим количеством активных соединений в данный момент времени. Модификации:
|
||||
- *Взвешенное наименьшее количество соединений* – направляет запросы на сервер с наименьшим соотношением активных соединений к его назначенному весу.
|
||||
* *Наименьшее время отклика* - направление запросов на сервер, который демонстрируют наилучшую производительность в данный момент. Он учитывает два ключевых фактора: время отклика сервера и количество активных соединений.
|
||||
* *Наименьший объем трафика* – динамический алгоритм балансировки нагрузки, который направляет входящие запросы на сервер, передающий наименьший объем данных в текущий момент.
|
||||
|
||||
Существует достаточно много различных технологий как для программной, так и аппаратной балансировки. Наиболее популярные решения – это Nginx и OpenELB, MetalLB для Kubernetes.
|
||||
|
||||
Для обеспечения балансировка нагрузки на базах данных используется механизм **репликации**. Балансировка нагрузки заключается в распределении запросов от пользователей по разным копиям (репликам) базы данных.
|
||||
|
||||
**Реверс-прокси** — это сервер, который находится перед веб-серверами и пересылает запросы от клиента на эти веб-серверы. Он не является в полной мере балансировщиком, но может выполнять его функцию при большой нагрузке на систему.
|
@ -1,12 +0,0 @@
|
||||
Распределенные системы все больше набирают популярность в наше время. Этому способствуют такие ее качества как:
|
||||
* *Устойчивость и масштабируемость* – возможность репликации позволяет поддерживать в работоспособном состоянии всю систему при отказе одного из ее компонентов
|
||||
* *Принцип единой ответственности* – реализация каждого элемента системы в виде сервиса, ответственного за что-то одно, упрощает поддержку и дальнейшее развитие системы.
|
||||
* *Увеличение производительности* – использование одновременно несколько распределенных сервисов позволяет повысить скорость обработки данных
|
||||
|
||||
**Оркестраторы** призваны обеспечивать мониторинг за состоянием системы и выполнять функции по ее оптимизации: организация быстрого развертывания, балансировка нагрузки. Оркестраторы так же позволяют уведомлять пользователей о возникших проблемах и выполнять сбор, агрегацию и анализ логов. Подобная обработка данных позволяет выявить узкие места системы. Но оркестратор так же требует ресурсы на собственную работу.
|
||||
|
||||
Под **сообщениями** подразумеваются данные, которыми обмениваются сервисы внутри системы. **Очереди сообщений** обеспечивают асинхронный обмен информацией. Сервис, отправляющий сообщение, взаимодействует не с другим сервисом, а с очередью и ждет ответа, не блокируя собственные процессы. Брокеры сообщений повышают отказоустойчивость такого обмена – они гарантируют доставку сообщения до сервиса-приемника.
|
||||
|
||||
На мой взгляд основными *преимуществами* распределенных приложений являются их масштабируемость и отказоустойчивость. Но в то же время они имеют и достаточно весомые *недостатки* – сложность их поддержки и реализации, а также сложность обработки и трассировки транзакций.
|
||||
|
||||
**Параллельные вычисления** в подобных системах следует внедрять только в том случае, когда *выигрыш от скорости вычислений значительно повышает затраты на выделение ресурсов*. Вычислить математические характеристики матрицы, к примеру, может быть оправдано, а вот разнесение высокоуровневой логики может быть неоправданно
|
8
emelyanov_artem_lab_4/.idea/.gitignore
vendored
@ -1,8 +0,0 @@
|
||||
# Default ignored files
|
||||
/shelf/
|
||||
/workspace.xml
|
||||
# Editor-based HTTP Client requests
|
||||
/httpRequests/
|
||||
# Datasource local storage ignored files
|
||||
/dataSources/
|
||||
/dataSources.local.xml
|
@ -1,9 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<module type="JAVA_MODULE" version="4">
|
||||
<component name="NewModuleRootManager" inherit-compiler-output="true">
|
||||
<exclude-output />
|
||||
<content url="file://$MODULE_DIR$" />
|
||||
<orderEntry type="inheritedJdk" />
|
||||
<orderEntry type="sourceFolder" forTests="false" />
|
||||
</component>
|
||||
</module>
|
@ -1,6 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="ProjectRootManager" version="2" languageLevel="JDK_23" default="true" project-jdk-name="23" project-jdk-type="JavaSDK">
|
||||
<output url="file://$PROJECT_DIR$/out" />
|
||||
</component>
|
||||
</project>
|
@ -1,8 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="ProjectModuleManager">
|
||||
<modules>
|
||||
<module fileurl="file://$PROJECT_DIR$/.idea/emelyanov_artem_lab_4.iml" filepath="$PROJECT_DIR$/.idea/emelyanov_artem_lab_4.iml" />
|
||||
</modules>
|
||||
</component>
|
||||
</project>
|
@ -1,6 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="VcsDirectoryMappings">
|
||||
<mapping directory="$PROJECT_DIR$/.." vcs="Git" />
|
||||
</component>
|
||||
</project>
|
@ -1,28 +0,0 @@
|
||||
# Отчёт по урокам
|
||||
|
||||
1. ![lesson-1.png](images/lesson-1.png)
|
||||
2. ![lesson-2.png](images/lesson-2.png)
|
||||
3. ![lesson-3.png](images/lesson-3.png)
|
||||
|
||||
# Задание
|
||||
|
||||
### Работа Publisher`a
|
||||
|
||||
![Снимок экрана от 2024-10-18 16-01-40.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-01-40.png)
|
||||
|
||||
### Работа 1 Consumer`a
|
||||
|
||||
![Снимок экрана от 2024-10-18 16-01-48.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-01-48.png)
|
||||
|
||||
### Работа 2 Consumer`a
|
||||
|
||||
![Снимок экрана от 2024-10-18 16-01-52.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-01-52.png)
|
||||
|
||||
### Результат процесса выполнения в RabbitMQ
|
||||
|
||||
![Снимок экрана от 2024-10-18 16-02-20.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-02-20.png)
|
||||
![Снимок экрана от 2024-10-18 16-02-59.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-02-59.png)
|
||||
![Снимок экрана от 2024-10-18 16-03-08.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-03-08.png)
|
||||
![Снимок экрана от 2024-10-18 16-03-12.png](images/%D0%A1%D0%BD%D0%B8%D0%BC%D0%BE%D0%BA%20%D1%8D%D0%BA%D1%80%D0%B0%D0%BD%D0%B0%20%D0%BE%D1%82%202024-10-18%2016-03-12.png)
|
||||
|
||||
Ссылка на видео: https://drive.google.com/file/d/19K3-NrLHzurDqZ6EE8gyg1ajDRBdf21u/view?usp=sharing
|
@ -1,12 +0,0 @@
|
||||
version: '3.8'
|
||||
|
||||
services:
|
||||
rabbitmq:
|
||||
image: rabbitmq:3-management
|
||||
container_name: rabbitmq
|
||||
environment:
|
||||
RABBITMQ_DEFAULT_USER: user
|
||||
RABBITMQ_DEFAULT_PASS: password
|
||||
ports:
|
||||
- "5672:5672" # для приложений
|
||||
- "15672:15672" # для панели управления
|
Before Width: | Height: | Size: 78 KiB |
Before Width: | Height: | Size: 86 KiB |
Before Width: | Height: | Size: 241 KiB |
Before Width: | Height: | Size: 108 KiB |
Before Width: | Height: | Size: 81 KiB |
Before Width: | Height: | Size: 85 KiB |
Before Width: | Height: | Size: 61 KiB |
Before Width: | Height: | Size: 41 KiB |
Before Width: | Height: | Size: 60 KiB |
Before Width: | Height: | Size: 60 KiB |
42
emelyanov_artem_lab_4/lesson-1/.gitignore
vendored
@ -1,42 +0,0 @@
|
||||
.gradle
|
||||
build/
|
||||
!gradle/wrapper/gradle-wrapper.jar
|
||||
!**/src/main/**/build/
|
||||
!**/src/test/**/build/
|
||||
|
||||
### IntelliJ IDEA ###
|
||||
.idea/modules.xml
|
||||
.idea/jarRepositories.xml
|
||||
.idea/compiler.xml
|
||||
.idea/libraries/
|
||||
*.iws
|
||||
*.iml
|
||||
*.ipr
|
||||
out/
|
||||
!**/src/main/**/out/
|
||||
!**/src/test/**/out/
|
||||
|
||||
### Eclipse ###
|
||||
.apt_generated
|
||||
.classpath
|
||||
.factorypath
|
||||
.project
|
||||
.settings
|
||||
.springBeans
|
||||
.sts4-cache
|
||||
bin/
|
||||
!**/src/main/**/bin/
|
||||
!**/src/test/**/bin/
|
||||
|
||||
### NetBeans ###
|
||||
/nbproject/private/
|
||||
/nbbuild/
|
||||
/dist/
|
||||
/nbdist/
|
||||
/.nb-gradle/
|
||||
|
||||
### VS Code ###
|
||||
.vscode/
|
||||
|
||||
### Mac OS ###
|
||||
.DS_Store
|
@ -1,17 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="GradleMigrationSettings" migrationVersion="1" />
|
||||
<component name="GradleSettings">
|
||||
<option name="linkedExternalProjectsSettings">
|
||||
<GradleProjectSettings>
|
||||
<option name="externalProjectPath" value="$PROJECT_DIR$" />
|
||||
<option name="gradleHome" value="" />
|
||||
<option name="modules">
|
||||
<set>
|
||||
<option value="$PROJECT_DIR$" />
|
||||
</set>
|
||||
</option>
|
||||
</GradleProjectSettings>
|
||||
</option>
|
||||
</component>
|
||||
</project>
|
@ -1,10 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="ExternalStorageConfigurationManager" enabled="true" />
|
||||
<component name="FrameworkDetectionExcludesConfiguration">
|
||||
<file type="web" url="file://$PROJECT_DIR$" />
|
||||
</component>
|
||||
<component name="ProjectRootManager" version="2" languageLevel="JDK_21" default="true" project-jdk-name="21" project-jdk-type="JavaSDK">
|
||||
<output url="file://$PROJECT_DIR$/out" />
|
||||
</component>
|
||||
</project>
|
@ -1,6 +0,0 @@
|
||||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="VcsDirectoryMappings">
|
||||
<mapping directory="$PROJECT_DIR$/../.." vcs="Git" />
|
||||
</component>
|
||||
</project>
|