Compare commits
300 Commits
vaksman_va
...
main
Author | SHA1 | Date | |
---|---|---|---|
3b9698ac38 | |||
a456344432 | |||
383a5e3b25 | |||
2834efbbce | |||
decc46b37c | |||
a41e76795f | |||
bcfec37329 | |||
e17b0b0d61 | |||
62290fc43d | |||
0b5fb8da2e | |||
9c6ef7e89e | |||
e763cf36e2 | |||
adf3f384a3 | |||
5ae6cd3cf1 | |||
daf3742ce6 | |||
fb37a53f66 | |||
23e035f9b2 | |||
556d8cf262 | |||
419790f5df | |||
54a9b8a778 | |||
3aeae245fa | |||
382273ccb8 | |||
4a37f55328 | |||
4e32398903 | |||
e69819aedd | |||
d9c4402ec9 | |||
93687ad850 | |||
4528bcd22c | |||
eef1d03249 | |||
7e09109cd2 | |||
f46724e5cf | |||
72b0b63e58 | |||
fd54e426b5 | |||
ad8894c0ca | |||
edea94a4f2 | |||
|
5700e75965 | ||
|
9e9711f004 | ||
014845df45 | |||
636592bbac | |||
6711e8b0f6 | |||
c91aa6e1f3 | |||
d340d34c0b | |||
aaff3b8183 | |||
06a7114499 | |||
0246f32bcf | |||
417368d25e | |||
20a39fa9a5 | |||
fb15f87160 | |||
f86dfba785 | |||
e874c69b62 | |||
6f0726185a | |||
|
b4b0ef7730 | ||
|
4d51941016 | ||
|
a07b272c79 | ||
7cb94c14b0 | |||
|
506d544060 | ||
1ef9e02d32 | |||
ff8a87ebb8 | |||
740d49d368 | |||
df1b8bd8ce | |||
7549429b6b | |||
00d9e2409a | |||
098cb9b9ad | |||
af39fdc505 | |||
ef603a8056 | |||
c8b3124074 | |||
ce853de348 | |||
c3ac60eaa2 | |||
e12438b727 | |||
aa54f9187f | |||
b1d8660774 | |||
6c66654acc | |||
1d9c308bb4 | |||
a64b6c7329 | |||
7ec5c45faa | |||
340dc6aa19 | |||
a152275bb7 | |||
6e3ec51fe7 | |||
131dc39f6c | |||
d82f47e04c | |||
3175352d02 | |||
2e86e68e12 | |||
63dd60f20e | |||
63e031ef17 | |||
5fdabedcd6 | |||
9eadb70f85 | |||
5fd241a980 | |||
4f53dff75f | |||
57b7675030 | |||
b1c16dc76c | |||
309911ed75 | |||
d23e808325 | |||
4c974bfb51 | |||
b573569a97 | |||
60c79b64fb | |||
07105e81a0 | |||
|
0ebd562be2 | ||
|
22a3917d28 | ||
46b94ea885 | |||
|
94b8ba783c | ||
|
060bd2321e | ||
|
a8f1b39dd7 | ||
d3a7046f97 | |||
06d65650ab | |||
992a169c9b | |||
b82a13c106 | |||
e33ffef85e | |||
9362e62999 | |||
430fad9ef4 | |||
d0aedf8495 | |||
effd849042 | |||
55e18b6a64 | |||
5a7409d60c | |||
265cf478bf | |||
c6f29a13a1 | |||
4103a23984 | |||
f8ac151629 | |||
13b5dfc707 | |||
5d3517c2b0 | |||
f3bbfb2efd | |||
3c6c7f47e8 | |||
dc7c2c9694 | |||
481631cda5 | |||
9b4f9b608c | |||
3b842c2228 | |||
c4b8f4b4de | |||
85567eea48 | |||
ea8da8c665 | |||
2497e3c742 | |||
|
a628469960 | ||
f107797a2d | |||
98e9047b45 | |||
53f96303bc | |||
eb7211c6f9 | |||
66ffe827f8 | |||
a0209b612e | |||
1f72d4dc70 | |||
b351431f51 | |||
56baf52b61 | |||
f5ec3f1767 | |||
77790c37fb | |||
735a403027 | |||
c67049687b | |||
022e2dc49e | |||
8f24aad349 | |||
a54e13f7ee | |||
1bb988ea2f | |||
f7668394b0 | |||
|
a6a247cabf | ||
|
f5194bf885 | ||
|
12cd98aa7d | ||
85b809333b | |||
5e3c9c0d5b | |||
daf24d364d | |||
6c13deb231 | |||
543d41d9c3 | |||
153684c403 | |||
0708b01560 | |||
8a6932ff20 | |||
35cf16824d | |||
ac3dc2e566 | |||
2f46c05849 | |||
84cb26162c | |||
129b991712 | |||
ffecef8fa3 | |||
1289d67a62 | |||
b09f3ea844 | |||
2f368ffb07 | |||
ead06782ad | |||
b2ac5eba9a | |||
0c0a47549a | |||
|
84e8cac198 | ||
|
3db4a0fcd4 | ||
a4f9cf13cc | |||
bde242318f | |||
761cc83ebd | |||
4699fda797 | |||
940cc6757f | |||
1e9bdf2806 | |||
|
9bd14a60b4 | ||
5aa2cae670 | |||
75b118ba6e | |||
d8441a0989 | |||
1213b5db3c | |||
281d30a89e | |||
f2093f376c | |||
80c666d6b0 | |||
a589994db5 | |||
38ce2bb347 | |||
f25af86d9c | |||
45eb2b72c5 | |||
77bdc1d8e9 | |||
da6593c4d0 | |||
|
eeac04be49 | ||
0a73e2d5d4 | |||
1565e49462 | |||
858ea65e71 | |||
0f898b968d | |||
8b96102dbd | |||
82ecad71f4 | |||
8a96320fd5 | |||
bd25930973 | |||
|
f0b48bba28 | ||
ef68b506b8 | |||
|
8efc2422cf | ||
c3537b5abe | |||
a0ef65e0f9 | |||
23087c87ea | |||
5a6580ff8c | |||
5f6472b5ff | |||
e1950c80ea | |||
5586bec4b8 | |||
6815b2e560 | |||
48b7fbd900 | |||
080625d270 | |||
37996c249a | |||
9456d4fe01 | |||
c14e105db5 | |||
4d1e900721 | |||
7184d6d728 | |||
|
6e7055efa4 | ||
|
9e40adc53c | ||
|
4a36528cc7 | ||
ad3988e5fc | |||
780b4b2924 | |||
d9f5f75f5e | |||
7d9c9ec4d0 | |||
5047b16cde | |||
2b87427299 | |||
|
21cdd4971d | ||
6b55b7b0fc | |||
47193155d9 | |||
bc8c4c887e | |||
4a2adcc35a | |||
d7cb666a0d | |||
6c642384c1 | |||
bdb5cc07ed | |||
e761e33201 | |||
|
ceee500b95 | ||
4c74a16753 | |||
a830cb2198 | |||
9d0fa199f7 | |||
2be2c71b69 | |||
|
aa8180ba49 | ||
c509e74465 | |||
314751f25c | |||
48f7f3a215 | |||
f112d2a44b | |||
477afb824d | |||
6ce78e60ad | |||
b13182c80e | |||
e7b9938278 | |||
822467bd99 | |||
|
ba7480cb4f | ||
520337f92d | |||
6de5160da9 | |||
d7faf2a1b7 | |||
d98803227e | |||
6f12270c73 | |||
6e6266c228 | |||
06d1d8cdd4 | |||
4c76a9dea6 | |||
e5d0aa0b3d | |||
d326e64f24 | |||
1a118ae71f | |||
e9b06b1f27 | |||
|
1adaac9281 | ||
f0083bc4cd | |||
|
5e9e2600f3 | ||
b6e311755e | |||
|
0c3e973307 | ||
c474c13c4a | |||
8eedde24a1 | |||
829a04a913 | |||
57970b3333 | |||
1c77ba3272 | |||
ce9527b1c9 | |||
a1419f21ec | |||
aac01e9f48 | |||
221f3e248b | |||
3d98388a13 | |||
4922e9075e | |||
891eae4211 | |||
121e4bbcd2 | |||
0590f7b532 | |||
0eec58a347 | |||
|
c8dbd5fb37 | ||
253ad80e31 | |||
f980a74f5e | |||
e10ae36577 | |||
46b8ecfc54 | |||
262193a301 | |||
48711e14e3 | |||
39664ac3a1 | |||
7af877c37a | |||
ec21e89033 | |||
2714d4e718 | |||
b8a59b4932 | |||
4af4abcb7f | |||
e6dcbeb800 |
6
.idea/.gitignore
vendored
Normal file
@ -0,0 +1,6 @@
|
|||||||
|
# Default ignored files
|
||||||
|
/shelf/
|
||||||
|
/workspace.xml
|
||||||
|
/DAS_2024_1.iml
|
||||||
|
/modules.xml
|
||||||
|
/vcs.xml
|
1
.idea/.name
Normal file
@ -0,0 +1 @@
|
|||||||
|
main.py
|
12
.idea/inspectionProfiles/Project_Default.xml
Normal file
@ -0,0 +1,12 @@
|
|||||||
|
<component name="InspectionProjectProfileManager">
|
||||||
|
<profile version="1.0">
|
||||||
|
<option name="myName" value="Project Default" />
|
||||||
|
<inspection_tool class="PyUnresolvedReferencesInspection" enabled="true" level="WARNING" enabled_by_default="true">
|
||||||
|
<option name="ignoredIdentifiers">
|
||||||
|
<list>
|
||||||
|
<option value="str.__pos__" />
|
||||||
|
</list>
|
||||||
|
</option>
|
||||||
|
</inspection_tool>
|
||||||
|
</profile>
|
||||||
|
</component>
|
6
.idea/inspectionProfiles/profiles_settings.xml
Normal file
@ -0,0 +1,6 @@
|
|||||||
|
<component name="InspectionProjectProfileManager">
|
||||||
|
<settings>
|
||||||
|
<option name="USE_PROJECT_PROFILE" value="false" />
|
||||||
|
<version value="1.0" />
|
||||||
|
</settings>
|
||||||
|
</component>
|
4
.idea/misc.xml
Normal file
@ -0,0 +1,4 @@
|
|||||||
|
<?xml version="1.0" encoding="UTF-8"?>
|
||||||
|
<project version="4">
|
||||||
|
<component name="ProjectRootManager" version="2" project-jdk-name="Python 3.9 (tukaeva_alfiya_lab_4)" project-jdk-type="Python SDK" />
|
||||||
|
</project>
|
32
aleikin_artem_lab_1/README.md
Normal file
@ -0,0 +1,32 @@
|
|||||||
|
# Лабораторная работа 1 - Знакомство с Docker и Docker Compose
|
||||||
|
## ПИбд-42 || Алейкин Артем
|
||||||
|
|
||||||
|
### Описание
|
||||||
|
В данной лабораторной работе мы разворачиваем три популярных сервиса — MediaWiki и Redmine — с использованием Docker Compose. Каждый сервис работает в своем контейнере и использует общую базу данных PostgreSQL для хранения данных. Мы также настраиваем проброс портов для доступа к веб-интерфейсам сервисов и используем Docker volumes для сохранения данных вне контейнеров.
|
||||||
|
|
||||||
|
### Цель проекта
|
||||||
|
изучение современных технологий контейнеризации
|
||||||
|
|
||||||
|
### Шаги для запуска:
|
||||||
|
1. Клонирование репозитория:
|
||||||
|
```
|
||||||
|
git clone <ссылка-на-репозиторий>
|
||||||
|
cd <папка репозитория>
|
||||||
|
```
|
||||||
|
|
||||||
|
2. Запуск контейнеров:
|
||||||
|
```
|
||||||
|
docker-compose up -d
|
||||||
|
```
|
||||||
|
|
||||||
|
3. После запуска должны быть доступны следующие контейнеры:
|
||||||
|
|
||||||
|
MediaWiki: http://localhost:8080
|
||||||
|
Redmine: http://localhost:8081
|
||||||
|
|
||||||
|
4. Чтобы остановить контейнеры:
|
||||||
|
```
|
||||||
|
docker-compose down
|
||||||
|
```
|
||||||
|
|
||||||
|
Видео демонстрации работы: https://vk.com/video248424990_456239601?list=ln-sCRa9IIiV1VpInn2d1
|
45
aleikin_artem_lab_1/docker-compose.yml
Normal file
@ -0,0 +1,45 @@
|
|||||||
|
services:
|
||||||
|
mediawiki:
|
||||||
|
image: mediawiki
|
||||||
|
container_name: mediawiki
|
||||||
|
ports:
|
||||||
|
- "8080:80" # Пробрасываем порт 8080 на хост для доступа к MediaWiki
|
||||||
|
volumes:
|
||||||
|
- mediawiki_data:/var/www/html/images # Создаем volume для хранения данных MediaWiki
|
||||||
|
environment:
|
||||||
|
- MEDIAWIKI_DB_HOST=db
|
||||||
|
- MEDIAWIKI_DB_NAME=mediawiki
|
||||||
|
- MEDIAWIKI_DB_USER=root
|
||||||
|
- MEDIAWIKI_DB_PASSWORD=example
|
||||||
|
depends_on:
|
||||||
|
- db
|
||||||
|
|
||||||
|
redmine:
|
||||||
|
image: redmine
|
||||||
|
container_name: redmine
|
||||||
|
ports:
|
||||||
|
- "8081:3000" # Пробрасываем порт 8081 на хост для доступа к Redmine
|
||||||
|
volumes:
|
||||||
|
- redmine_data:/usr/src/redmine/files # Создаем volume для хранения данных Redmine
|
||||||
|
environment:
|
||||||
|
- REDMINE_DB_POSTGRESQL=db
|
||||||
|
- REDMINE_DB_DATABASE=redmine
|
||||||
|
- REDMINE_DB_USERNAME=root
|
||||||
|
- REDMINE_DB_PASSWORD=example
|
||||||
|
depends_on:
|
||||||
|
- db
|
||||||
|
|
||||||
|
db:
|
||||||
|
image: postgres:latest
|
||||||
|
container_name: db
|
||||||
|
environment:
|
||||||
|
POSTGRES_USER: postgres
|
||||||
|
POSTGRES_PASSWORD: example
|
||||||
|
POSTGRES_DB: postgres
|
||||||
|
volumes:
|
||||||
|
- db_data:/var/lib/postgresql # Volume для базы данных
|
||||||
|
|
||||||
|
volumes:
|
||||||
|
mediawiki_data: # volume для MediaWiki
|
||||||
|
redmine_data: # volume для Redmine
|
||||||
|
db_data: # volume для базы данных
|
48
artamonova_tatyana_lab_1/README.md
Normal file
@ -0,0 +1,48 @@
|
|||||||
|
## Отчет по Docker Compose конфигурации
|
||||||
|
|
||||||
|
### Краткое описание:
|
||||||
|
|
||||||
|
Данная конфигурация Docker Compose запускает набор сервисов, необходимых для работы WordPress и MediaWiki. Она включает в себя:
|
||||||
|
|
||||||
|
- **WordPress:** веб-сервис для блогов и CMS
|
||||||
|
- **MySQL:** база данных для хранения данных WordPress
|
||||||
|
- **RabbitMQ:** брокер сообщений для потенциального использования в будущем
|
||||||
|
- **MediaWiki:** вики-движок для создания и редактирования вики-страниц
|
||||||
|
|
||||||
|
### Запуск лабораторной работы:
|
||||||
|
|
||||||
|
1. Установить Docker и Docker Compose.
|
||||||
|
2. Сохранить конфигурацию в файл docker-compose.yml.
|
||||||
|
3. Запустить команду docker-compose up --build
|
||||||
|
|
||||||
|
### Используемые технологии:
|
||||||
|
|
||||||
|
- **Docker Compose:** инструмент для определения и запуска многоконтейнерных приложений.
|
||||||
|
- **Docker:** платформа для создания, развертывания и запуска контейнеров.
|
||||||
|
- **WordPress:** популярная платформа для создания блогов и CMS.
|
||||||
|
- **MySQL:** популярная система управления базами данных.
|
||||||
|
- **RabbitMQ:** брокер сообщений, используемый для асинхронного обмена сообщениями.
|
||||||
|
- **MediaWiki:** свободное программное обеспечение для создания и редактирования вики-страниц.
|
||||||
|
|
||||||
|
### Функциональность:
|
||||||
|
|
||||||
|
Конфигурация запускает следующие сервисы:
|
||||||
|
|
||||||
|
- **WordPress:** работает на порту 8080, доступен по адресу http://localhost:8080.
|
||||||
|
- **MySQL:** предоставляет базу данных для WordPress и MediaWiki.
|
||||||
|
- **RabbitMQ:** работает на порту 5672, доступен по адресу http://localhost:15672 для управления.
|
||||||
|
- **MediaWiki:** работает на порту 8081, доступен по адресу http://localhost:8081.
|
||||||
|
|
||||||
|
### Дополнительные сведения
|
||||||
|
|
||||||
|
- **Volumes**: используются для хранения данных сервисов, чтобы они не терялись при перезапуске контейнеров.
|
||||||
|
- **Depends_on**: указывает на зависимость между сервисами, например, WordPress зависит от MySQL.
|
||||||
|
- **Restart policy**: определяет, как сервисы будут перезапускаться после сбоя.
|
||||||
|
|
||||||
|
### Видео
|
||||||
|
|
||||||
|
https://vk.com/video/@artamonovat?z=video212084908_456239356%2Fpl_212084908_-2
|
||||||
|
|
||||||
|
### Заключение:
|
||||||
|
|
||||||
|
Данная конфигурация Docker Compose обеспечивает простой и удобный способ запуска и управления несколькими сервисами, связанными с WordPress и MediaWiki. Она позволяет разработчикам легко развертывать и управлять приложениями в изолированной среде.
|
61
artamonova_tatyana_lab_1/docker-compose.yml
Normal file
@ -0,0 +1,61 @@
|
|||||||
|
version: '3.7'
|
||||||
|
|
||||||
|
services:
|
||||||
|
wordpress:
|
||||||
|
image: wordpress:latest
|
||||||
|
ports:
|
||||||
|
- "8080:80"
|
||||||
|
volumes:
|
||||||
|
- wordpress_data:/var/www/html
|
||||||
|
environment:
|
||||||
|
WORDPRESS_DB_HOST: db
|
||||||
|
WORDPRESS_DB_NAME: wordpress
|
||||||
|
WORDPRESS_DB_USER: wordpress
|
||||||
|
WORDPRESS_DB_PASSWORD: password
|
||||||
|
depends_on:
|
||||||
|
- db
|
||||||
|
restart: unless-stopped
|
||||||
|
|
||||||
|
db:
|
||||||
|
image: mysql:latest
|
||||||
|
volumes:
|
||||||
|
- db_data:/var/lib/mysql
|
||||||
|
environment:
|
||||||
|
MYSQL_DATABASE: wordpress
|
||||||
|
MYSQL_USER: wordpress
|
||||||
|
MYSQL_PASSWORD: dbpassword
|
||||||
|
MYSQL_ROOT_PASSWORD: rootpassword
|
||||||
|
restart: unless-stopped
|
||||||
|
|
||||||
|
rabbitmq:
|
||||||
|
image: rabbitmq:3-management
|
||||||
|
ports:
|
||||||
|
- "5672:5672"
|
||||||
|
- "15672:15672"
|
||||||
|
volumes:
|
||||||
|
- rabbitmq_data:/var/lib/rabbitmq
|
||||||
|
environment:
|
||||||
|
RABBITMQ_DEFAULT_USER: guest
|
||||||
|
RABBITMQ_DEFAULT_PASS: password
|
||||||
|
restart: unless-stopped
|
||||||
|
|
||||||
|
mediawiki:
|
||||||
|
image: mediawiki:latest
|
||||||
|
ports:
|
||||||
|
- "8081:80"
|
||||||
|
volumes:
|
||||||
|
- mediawiki_data:/var/www/html
|
||||||
|
environment:
|
||||||
|
MW_DB_SERVER: db
|
||||||
|
MW_DB_NAME: mediawiki
|
||||||
|
MW_DB_USER: mediawiki
|
||||||
|
MW_DB_PASSWORD: mediawiki_password
|
||||||
|
depends_on:
|
||||||
|
- db
|
||||||
|
restart: unless-stopped
|
||||||
|
|
||||||
|
volumes:
|
||||||
|
wordpress_data:
|
||||||
|
db_data:
|
||||||
|
rabbitmq_data:
|
||||||
|
mediawiki_data:
|
5
artamonova_tatyana_lab_2/.gitignore
vendored
Normal file
@ -0,0 +1,5 @@
|
|||||||
|
*.pyc
|
||||||
|
__pycache__
|
||||||
|
*.egg-info
|
||||||
|
*.dist-info
|
||||||
|
.DS_Store
|
22
artamonova_tatyana_lab_2/README.md
Normal file
@ -0,0 +1,22 @@
|
|||||||
|
## Лабораторная работа №2
|
||||||
|
### Выполнила Артамонова Татьяна ПИбд-42
|
||||||
|
|
||||||
|
**Вариант 1: Программа 4 - Количество символов в именах файлов из каталога /var/data**
|
||||||
|
|
||||||
|
- Формирует файл /var/result/data1.txt так, что каждая строка файла - количество символов в именах файлов из каталога /var/data.
|
||||||
|
|
||||||
|
**Вариант 2: Программа 3 - Количество чисел в последовательности**
|
||||||
|
|
||||||
|
- Ищет набольшее число из файла /var/result/data1.txt и сохраняет количество таких чисел из последовательности в /var/result/data2.txt.
|
||||||
|
|
||||||
|
**Структура проекта:**
|
||||||
|
|
||||||
|
1. В папках worker-1, worker-2 лежат выполняемые файлы .py и Dockerfile-ы с необходимым набором инструкций.
|
||||||
|
2. В папке data лежат файлы, длину имен которых нужно посчитать.
|
||||||
|
3. В папке result лежат файлы с результатами выполнения программ. data1.txt - результат выполнения main1.py (worker-1), data2.txt - результат выполнения main2.py (worker-2). Данные в data2 рассчитываются из данных data1.
|
||||||
|
4. Файл .gitignore - для указания, какие файлы отслеживать, а какие - нет.
|
||||||
|
5. docker-compose.yml - для определения и управления контейнерами Docker.
|
||||||
|
|
||||||
|
**Команда для запуска** - docker-compose up --build
|
||||||
|
|
||||||
|
**Ссылка на видео:** https://vk.com/artamonovat?z=video212084908_456239357%2Fvideos212084908%2Fpl_212084908_-2
|
0
artamonova_tatyana_lab_2/data/exampleFile.txt
Normal file
0
artamonova_tatyana_lab_2/data/exampleFile123.txt
Normal file
0
artamonova_tatyana_lab_2/data/exampleFile456.txt
Normal file
22
artamonova_tatyana_lab_2/docker-compose.yml
Normal file
@ -0,0 +1,22 @@
|
|||||||
|
services:
|
||||||
|
worker-1:
|
||||||
|
build:
|
||||||
|
context: ./worker-1
|
||||||
|
volumes:
|
||||||
|
- ./worker-1:/app
|
||||||
|
- ./data:/var/data
|
||||||
|
- ./result:/var/result
|
||||||
|
depends_on:
|
||||||
|
- worker-2
|
||||||
|
|
||||||
|
worker-2:
|
||||||
|
build:
|
||||||
|
context: ./worker-2
|
||||||
|
volumes:
|
||||||
|
- ./worker-2:/app
|
||||||
|
- ./data:/var/data
|
||||||
|
- ./result:/var/result
|
||||||
|
|
||||||
|
volumes:
|
||||||
|
data:
|
||||||
|
result:
|
3
artamonova_tatyana_lab_2/result/data1.txt
Normal file
@ -0,0 +1,3 @@
|
|||||||
|
15
|
||||||
|
18
|
||||||
|
18
|
1
artamonova_tatyana_lab_2/result/data2.txt
Normal file
@ -0,0 +1 @@
|
|||||||
|
2
|
14
artamonova_tatyana_lab_2/worker-1/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
||||||
|
# slim-версия образа более компактная, что делает контейнер меньше.
|
||||||
|
FROM python:3.10-slim
|
||||||
|
|
||||||
|
# Устанавливаем рабочую директорию в контейнере как /app.
|
||||||
|
# Все последующие команды будут выполняться в этой директории.
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
# Копируем файл main1.py из текущей директории в директорию /app в контейнере.
|
||||||
|
COPY main1.py .
|
||||||
|
|
||||||
|
# Определяем команду, которая будет выполняться при запуске контейнера.
|
||||||
|
# В данном случае запускается Python-скрипт main1.py.
|
||||||
|
CMD ["python", "main1.py"]
|
21
artamonova_tatyana_lab_2/worker-1/main1.py
Normal file
@ -0,0 +1,21 @@
|
|||||||
|
import os
|
||||||
|
import glob
|
||||||
|
|
||||||
|
# Формирует файл data1.txt так, что каждая строка файла - кол-во символов в именах файла из каталога /data
|
||||||
|
def main():
|
||||||
|
data_dir = "/var/data"
|
||||||
|
result_file = "/var/result/data1.txt"
|
||||||
|
|
||||||
|
result_dir = os.path.dirname(result_file)
|
||||||
|
if not os.path.exists(result_dir):
|
||||||
|
os.makedirs(result_dir)
|
||||||
|
|
||||||
|
files = glob.glob(os.path.join(data_dir, '*'))
|
||||||
|
|
||||||
|
with open(result_file, 'w') as f:
|
||||||
|
for file in files:
|
||||||
|
filename = os.path.basename(file)
|
||||||
|
f.write(f"{len(filename)}\n")
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
main()
|
14
artamonova_tatyana_lab_2/worker-2/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
# Используем образ Python 3.10-slim как основу для нашего контейнера.
|
||||||
|
# slim-версия образа более компактная, что делает контейнер меньше.
|
||||||
|
FROM python:3.10-slim
|
||||||
|
|
||||||
|
# Устанавливаем рабочую директорию в контейнере как /app.
|
||||||
|
# Все последующие команды будут выполняться в этой директории.
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
# Копируем файл main2.py из текущей директории в директорию /app в контейнере.
|
||||||
|
COPY main2.py .
|
||||||
|
|
||||||
|
# Определяем команду, которая будет выполняться при запуске контейнера.
|
||||||
|
# В данном случае запускается Python-скрипт main2.py.
|
||||||
|
CMD ["python", "main2.py"]
|
26
artamonova_tatyana_lab_2/worker-2/main2.py
Normal file
@ -0,0 +1,26 @@
|
|||||||
|
import os
|
||||||
|
|
||||||
|
# Ищет наибольшее число из файла data1.txt и сохраняет количество таких чисел из последовательности в data2.txt
|
||||||
|
def main():
|
||||||
|
data_file_path = "/var/result/data1.txt"
|
||||||
|
result_file_path = "/var/result/data2.txt"
|
||||||
|
|
||||||
|
if not os.path.exists(data_file_path):
|
||||||
|
data_dir = os.path.dirname(data_file_path)
|
||||||
|
|
||||||
|
if not os.path.exists(result_file_path):
|
||||||
|
result_dir = os.path.dirname(result_file_path)
|
||||||
|
|
||||||
|
with open(data_file_path, 'r') as f:
|
||||||
|
numbers = [int(x.strip()) for x in f.read().splitlines()]
|
||||||
|
|
||||||
|
max_number = max(numbers)
|
||||||
|
count = numbers.count(max_number)
|
||||||
|
|
||||||
|
with open(result_file_path, 'w') as f:
|
||||||
|
f.write(str(count))
|
||||||
|
|
||||||
|
print(f"Количество наибольших чисел: {count}")
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
main()
|
59
balakhonov_danila_lab_1/README.md
Normal file
@ -0,0 +1,59 @@
|
|||||||
|
# Лабораторная работа номер 1
|
||||||
|
|
||||||
|
> Здравствуйте меня зовут Балахонов Данила группа ПИбд-42
|
||||||
|
>
|
||||||
|
> *— Балахонов Данила ПИбд-42*
|
||||||
|
|
||||||
|
Видео лабораторной работы номер 1 доступно по этой [ссылке](https://drive.google.com/file/d/1Up_JzDcK_TjYLixpfYXN7PhJmOeg_Uck/view?usp=sharing).
|
||||||
|
|
||||||
|
## Как запустить лабораторную работу номер 1?
|
||||||
|
### Необходимые компоненты для запуска лабораторной работы номер 1
|
||||||
|
> Здесь рассказана установка необходимых компонентов для запуска лабораторной работы номер 1 под дистрибутив GNU/Linux **Ubuntu**.
|
||||||
|
|
||||||
|
Для запуска лабораторной работы номер 1 необходимы такие компоненты:
|
||||||
|
- Git
|
||||||
|
- Docker
|
||||||
|
- Docker compose
|
||||||
|
|
||||||
|
Чтобы установить **Git**, необходимо ввести данные команды в командную строку:
|
||||||
|
``` bash
|
||||||
|
sudo apt-get update
|
||||||
|
sudo apt-get install git
|
||||||
|
```
|
||||||
|
|
||||||
|
Чтобы установить **Docker** и **Docker compose**, стоит ввести такие команды:
|
||||||
|
``` bash
|
||||||
|
# Настройка репозитория Docker
|
||||||
|
sudo apt-get update
|
||||||
|
sudo apt-get install ca-certificates curl
|
||||||
|
sudo install -m 0755 -d /etc/apt/keyrings
|
||||||
|
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
|
||||||
|
sudo chmod a+r /etc/apt/keyrings/docker.asc
|
||||||
|
|
||||||
|
echo \
|
||||||
|
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
|
||||||
|
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
|
||||||
|
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
|
||||||
|
sudo apt-get update
|
||||||
|
|
||||||
|
# Установка Docker и его компонентов
|
||||||
|
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
|
||||||
|
```
|
||||||
|
### Запуск лабораторной работы номер 1
|
||||||
|
Для запуска лабораторной работы номер 1 необходимо **склонировать** репозиторий в любую папку и **перейти на ветку** balakhonov_danila_lab_1.
|
||||||
|
Далее в папке с `docker-compose.yaml` нужно вызвать такую команду:
|
||||||
|
``` bash
|
||||||
|
sudo docker-compose up -d
|
||||||
|
```
|
||||||
|
Таким образом будут запущены контейнеры в фоновом режиме.
|
||||||
|
## Какие технологии были использованы?
|
||||||
|
Для выполнения лабораторной работы номер 1 использовались такие технологии, как: *git*, *docker*, *docker compose*.
|
||||||
|
|
||||||
|
Сервисы, выбранные для запуска в docker-compose файле:
|
||||||
|
- *Gitea* - удобный сервис отслеживания версий разрабатываемого ПО
|
||||||
|
- *MediaWiki* - сервис создания и ведения электронной энциклопедии
|
||||||
|
- *PostgreSQL* - база данных, используемая сервисами выше
|
||||||
|
|
||||||
|
Системой, на которую были установлены указанные технологии, является Ubuntu 22.
|
||||||
|
## Что делает лабораторная работа номер 1?
|
||||||
|
Лабораторная работа номер 1 заключается в написании docker-compose файла для удобного запуска и администрирования сразу нескольких сервисов в docker-контейнерах.
|
58
balakhonov_danila_lab_1/docker-compose.yaml
Normal file
@ -0,0 +1,58 @@
|
|||||||
|
services:
|
||||||
|
# PostgreSQL
|
||||||
|
db:
|
||||||
|
# Образ контейнера PostgreSQL последней версии
|
||||||
|
image: postgres
|
||||||
|
# Название контейнера
|
||||||
|
container_name: db
|
||||||
|
# Переменные окружения для настройки базы данных
|
||||||
|
environment:
|
||||||
|
- POSTGRES_USER=gitea
|
||||||
|
- POSTGRES_PASSWORD=gitea
|
||||||
|
- POSTGRES_DB=gitea
|
||||||
|
# Настройка корневого каталога, где хранятся данные
|
||||||
|
# Слева указан каталог компьютера, справа - каталог контейнера
|
||||||
|
# Нужно для сохранения данных на сервере после отключения контейнера
|
||||||
|
volumes:
|
||||||
|
- ./postgres:/var/lib/postgresql/data
|
||||||
|
# Порт, через который можно будет подключиться к базе данных
|
||||||
|
ports:
|
||||||
|
- 5432:5432
|
||||||
|
# После перезапуска докера всегда запускать этот контейнер
|
||||||
|
restart: always
|
||||||
|
# Gitea
|
||||||
|
gitea:
|
||||||
|
# Используется Gitea последней версии
|
||||||
|
image: gitea/gitea
|
||||||
|
container_name: gitea
|
||||||
|
# После перезапуска докера всегда запускать этот контейнер
|
||||||
|
restart: always
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/lib/gitea
|
||||||
|
- ./config:/etc/gitea
|
||||||
|
- /etc/timezone:/etc/timezone:ro
|
||||||
|
- /etc/localtime:/etc/localtime:ro
|
||||||
|
ports:
|
||||||
|
- 3000:3000
|
||||||
|
- 2222:2222
|
||||||
|
environment:
|
||||||
|
- GITEA__database__DB_TYPE=postgres
|
||||||
|
- GITEA__database__HOST=db:5432
|
||||||
|
- GITEA__database__NAME=gitea
|
||||||
|
- GITEA__database__USER=gitea
|
||||||
|
- GITEA__database__PASSWD=gitea
|
||||||
|
# Указывается, что этот контейнер запускается только после запуска контейнера db
|
||||||
|
depends_on:
|
||||||
|
- db
|
||||||
|
# MediaWiki
|
||||||
|
mediawiki:
|
||||||
|
# Образ контейнера MediaWiki последней версии
|
||||||
|
image: mediawiki
|
||||||
|
container_name: mediawiki
|
||||||
|
restart: always
|
||||||
|
ports:
|
||||||
|
- 8080:80
|
||||||
|
links:
|
||||||
|
- db
|
||||||
|
volumes:
|
||||||
|
- ./images:/var/www/html/images
|
64
balakhonov_danila_lab_2/README.md
Normal file
@ -0,0 +1,64 @@
|
|||||||
|
# Лабораторная работа номер 2
|
||||||
|
|
||||||
|
> Здравствуйте меня зовут Балахонов Данила группа ПИбд-42
|
||||||
|
>
|
||||||
|
> *— Балахонов Данила ПИбд-42*
|
||||||
|
|
||||||
|
Видео лабораторной работы номер 2 доступно по этой [ссылке](https://drive.google.com/file/d/1N4NgWsFLlHY5lGOO3Ps7DPvdJbHNxaqz/view?usp=sharing).
|
||||||
|
|
||||||
|
## Как запустить лабораторную работу номер 2?
|
||||||
|
### Необходимые компоненты для запуска лабораторной работы номер 2
|
||||||
|
> Здесь рассказана установка необходимых компонентов для запуска лабораторной работы номер 2 под дистрибутив GNU/Linux **Ubuntu**.
|
||||||
|
|
||||||
|
Для запуска лабораторной работы номер 2 необходимы такие компоненты:
|
||||||
|
- Git
|
||||||
|
- Docker
|
||||||
|
- Docker compose
|
||||||
|
|
||||||
|
Чтобы установить **Git**, необходимо ввести данные команды в командную строку:
|
||||||
|
``` bash
|
||||||
|
sudo apt-get update
|
||||||
|
sudo apt-get install git
|
||||||
|
```
|
||||||
|
|
||||||
|
Чтобы установить **Docker** и **Docker compose**, стоит ввести такие команды:
|
||||||
|
``` bash
|
||||||
|
# Настройка репозитория Docker
|
||||||
|
sudo apt-get update
|
||||||
|
sudo apt-get install ca-certificates curl
|
||||||
|
sudo install -m 0755 -d /etc/apt/keyrings
|
||||||
|
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
|
||||||
|
sudo chmod a+r /etc/apt/keyrings/docker.asc
|
||||||
|
|
||||||
|
echo \
|
||||||
|
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
|
||||||
|
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
|
||||||
|
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
|
||||||
|
sudo apt-get update
|
||||||
|
|
||||||
|
# Установка Docker и его компонентов
|
||||||
|
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
|
||||||
|
```
|
||||||
|
### Запуск лабораторной работы номер 2
|
||||||
|
Для запуска лабораторной работы номер 2 необходимо **склонировать** репозиторий в любую папку и **перейти на ветку** balakhonov_danila_lab_2.
|
||||||
|
Далее в папке с `docker-compose.yaml` нужно вызвать такую команду:
|
||||||
|
``` bash
|
||||||
|
sudo docker-compose up --build
|
||||||
|
```
|
||||||
|
Таким образом контейнеры будут подготовлены и запущены. Результат выполнения будет находится внутри директории докера. Расположение файлов data.txt и result.txt: `/var/lib/docker/volumes/balakhonov_danila_lab_2_result/_data/`
|
||||||
|
|
||||||
|
## Какие технологии были использованы?
|
||||||
|
Для выполнения лабораторной работы номер 2 были применены такие технологии, как:
|
||||||
|
- Dockerfile
|
||||||
|
- Docker compose
|
||||||
|
- Git
|
||||||
|
- .NET SDK и F# в частности
|
||||||
|
|
||||||
|
Сервисы были написаны с использованием .NET SDK на языке F#.
|
||||||
|
## Что делает лабораторная работа номер 2?
|
||||||
|
Лабораторная работа номер 2 запускает два сервиса:
|
||||||
|
|
||||||
|
1. Сервис, который берёт из каталога `/var/data` случайный файл и перекладывает его в `/var/result/data.txt`
|
||||||
|
2. Сервис, который ищет наибольшее число из файла `/var/result/data.txt` и сохраняет количество таких чисел из последовательности в `/var/result/result.txt`
|
||||||
|
|
||||||
|
Благодаря лабораторной работе номер 2 были получены навыки создания Dockerfile для развертывания проектов в контейнерах, а также их связки с помощью docker-compose.yaml.
|
22
balakhonov_danila_lab_2/docker-compose.yaml
Normal file
@ -0,0 +1,22 @@
|
|||||||
|
services:
|
||||||
|
app1:
|
||||||
|
build: ./sigma_app_1/
|
||||||
|
volumes:
|
||||||
|
# Создание папки /var/data внутри контейнера
|
||||||
|
# И копирование файлов из ./files в эту папку
|
||||||
|
- ./files:/var/data
|
||||||
|
# Создание папки /var/result внутри контейнера
|
||||||
|
# А также папки result внутри директории докера
|
||||||
|
- result:/var/result
|
||||||
|
app2:
|
||||||
|
build: ./skibidi_app_2/
|
||||||
|
# Указано, что пока не запуститься app1, app2 не запустится
|
||||||
|
# Он ЗАВИСИТ от app1 (depends on (с англ.) - зависит от)
|
||||||
|
depends_on:
|
||||||
|
- app1
|
||||||
|
volumes:
|
||||||
|
- result:/var/result
|
||||||
|
volumes:
|
||||||
|
# Указывается, что будет создана папка result
|
||||||
|
# внутри директории докера
|
||||||
|
result:
|
323
balakhonov_danila_lab_2/files/1.txt
Normal file
@ -0,0 +1,323 @@
|
|||||||
|
245
|
||||||
|
678
|
||||||
|
12
|
||||||
|
987
|
||||||
|
456
|
||||||
|
234
|
||||||
|
789
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
987
|
||||||
|
654
|
||||||
|
321
|
||||||
|
456
|
||||||
|
789
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
987
|
||||||
|
654
|
||||||
|
321
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
234
|
||||||
|
567
|
||||||
|
890
|
||||||
|
12
|
||||||
|
34
|
||||||
|
56
|
||||||
|
78
|
||||||
|
90
|
||||||
|
123
|
||||||
|
456
|
||||||
|
789
|
||||||
|
321
|
||||||
|
654
|
||||||
|
987
|
||||||
|
432
|
||||||
|
876
|
||||||
|
543
|
||||||
|
210
|
||||||
|
678
|
||||||
|
345
|
||||||
|
678
|
642
balakhonov_danila_lab_2/files/2.txt
Normal file
@ -0,0 +1,642 @@
|
|||||||
|
873
|
||||||
|
62
|
||||||
|
455
|
||||||
|
879
|
||||||
|
235
|
||||||
|
941
|
||||||
|
267
|
||||||
|
811
|
||||||
|
174
|
||||||
|
517
|
||||||
|
382
|
||||||
|
399
|
||||||
|
460
|
||||||
|
221
|
||||||
|
640
|
||||||
|
915
|
||||||
|
384
|
||||||
|
622
|
||||||
|
897
|
||||||
|
212
|
||||||
|
798
|
||||||
|
109
|
||||||
|
477
|
||||||
|
546
|
||||||
|
29
|
||||||
|
995
|
||||||
|
678
|
||||||
|
342
|
||||||
|
135
|
||||||
|
804
|
||||||
|
890
|
||||||
|
453
|
||||||
|
726
|
||||||
|
891
|
||||||
|
664
|
||||||
|
290
|
||||||
|
872
|
||||||
|
190
|
||||||
|
526
|
||||||
|
304
|
||||||
|
12
|
||||||
|
587
|
||||||
|
234
|
||||||
|
753
|
||||||
|
980
|
||||||
|
197
|
||||||
|
824
|
||||||
|
579
|
||||||
|
458
|
||||||
|
15
|
||||||
|
999
|
||||||
|
614
|
||||||
|
704
|
||||||
|
205
|
||||||
|
860
|
||||||
|
537
|
||||||
|
842
|
||||||
|
491
|
||||||
|
668
|
||||||
|
210
|
||||||
|
920
|
||||||
|
477
|
||||||
|
811
|
||||||
|
350
|
||||||
|
731
|
||||||
|
95
|
||||||
|
639
|
||||||
|
287
|
||||||
|
127
|
||||||
|
423
|
||||||
|
1000
|
||||||
|
394
|
||||||
|
521
|
||||||
|
8
|
||||||
|
267
|
||||||
|
154
|
||||||
|
431
|
||||||
|
715
|
||||||
|
266
|
||||||
|
834
|
||||||
|
173
|
||||||
|
268
|
||||||
|
947
|
||||||
|
582
|
||||||
|
157
|
||||||
|
367
|
||||||
|
882
|
||||||
|
737
|
||||||
|
305
|
||||||
|
472
|
||||||
|
481
|
||||||
|
651
|
||||||
|
960
|
||||||
|
843
|
||||||
|
701
|
||||||
|
122
|
||||||
|
514
|
||||||
|
92
|
||||||
|
658
|
||||||
|
884
|
||||||
|
371
|
||||||
|
458
|
||||||
|
637
|
||||||
|
620
|
||||||
|
793
|
||||||
|
285
|
||||||
|
611
|
||||||
|
785
|
||||||
|
495
|
||||||
|
822
|
||||||
|
849
|
||||||
|
708
|
||||||
|
592
|
||||||
|
465
|
||||||
|
469
|
||||||
|
78
|
||||||
|
734
|
||||||
|
667
|
||||||
|
606
|
||||||
|
241
|
||||||
|
666
|
||||||
|
474
|
||||||
|
569
|
||||||
|
543
|
||||||
|
918
|
||||||
|
68
|
||||||
|
906
|
||||||
|
123
|
||||||
|
501
|
||||||
|
330
|
||||||
|
947
|
||||||
|
111
|
||||||
|
365
|
||||||
|
734
|
||||||
|
249
|
||||||
|
429
|
||||||
|
296
|
||||||
|
16
|
||||||
|
511
|
||||||
|
974
|
||||||
|
317
|
||||||
|
764
|
||||||
|
230
|
||||||
|
542
|
||||||
|
920
|
||||||
|
821
|
||||||
|
718
|
||||||
|
281
|
||||||
|
556
|
||||||
|
575
|
||||||
|
900
|
||||||
|
632
|
||||||
|
720
|
||||||
|
462
|
||||||
|
88
|
||||||
|
275
|
||||||
|
403
|
||||||
|
100
|
||||||
|
418
|
||||||
|
684
|
||||||
|
600
|
||||||
|
119
|
||||||
|
863
|
||||||
|
781
|
||||||
|
225
|
||||||
|
971
|
||||||
|
670
|
||||||
|
80
|
||||||
|
643
|
||||||
|
220
|
||||||
|
176
|
||||||
|
588
|
||||||
|
58
|
||||||
|
202
|
||||||
|
850
|
||||||
|
537
|
||||||
|
934
|
||||||
|
748
|
||||||
|
378
|
||||||
|
817
|
||||||
|
505
|
||||||
|
696
|
||||||
|
21
|
||||||
|
630
|
||||||
|
324
|
||||||
|
117
|
||||||
|
420
|
||||||
|
257
|
||||||
|
493
|
||||||
|
826
|
||||||
|
688
|
||||||
|
305
|
||||||
|
772
|
||||||
|
654
|
||||||
|
927
|
||||||
|
208
|
||||||
|
525
|
||||||
|
511
|
||||||
|
256
|
||||||
|
650
|
||||||
|
447
|
||||||
|
163
|
||||||
|
99
|
||||||
|
74
|
||||||
|
99
|
||||||
|
487
|
||||||
|
306
|
||||||
|
754
|
||||||
|
510
|
||||||
|
132
|
||||||
|
201
|
||||||
|
392
|
||||||
|
785
|
||||||
|
778
|
||||||
|
512
|
||||||
|
258
|
||||||
|
904
|
||||||
|
932
|
||||||
|
589
|
||||||
|
694
|
||||||
|
204
|
||||||
|
884
|
||||||
|
110
|
||||||
|
673
|
||||||
|
152
|
||||||
|
649
|
||||||
|
295
|
||||||
|
387
|
||||||
|
758
|
||||||
|
927
|
||||||
|
538
|
||||||
|
619
|
||||||
|
904
|
||||||
|
651
|
||||||
|
174
|
||||||
|
712
|
||||||
|
104
|
||||||
|
641
|
||||||
|
474
|
||||||
|
198
|
||||||
|
322
|
||||||
|
764
|
||||||
|
204
|
||||||
|
407
|
||||||
|
550
|
||||||
|
42
|
||||||
|
879
|
||||||
|
716
|
||||||
|
368
|
||||||
|
316
|
||||||
|
43
|
||||||
|
600
|
||||||
|
893
|
||||||
|
370
|
||||||
|
137
|
||||||
|
631
|
||||||
|
244
|
||||||
|
571
|
||||||
|
663
|
||||||
|
551
|
||||||
|
907
|
||||||
|
211
|
||||||
|
166
|
||||||
|
746
|
||||||
|
583
|
||||||
|
708
|
||||||
|
771
|
||||||
|
215
|
||||||
|
90
|
||||||
|
829
|
||||||
|
653
|
||||||
|
494
|
||||||
|
563
|
||||||
|
334
|
||||||
|
794
|
||||||
|
745
|
||||||
|
936
|
||||||
|
718
|
||||||
|
126
|
||||||
|
923
|
||||||
|
451
|
||||||
|
668
|
||||||
|
966
|
||||||
|
532
|
||||||
|
935
|
||||||
|
886
|
||||||
|
646
|
||||||
|
75
|
||||||
|
858
|
||||||
|
693
|
||||||
|
859
|
||||||
|
284
|
||||||
|
315
|
||||||
|
679
|
||||||
|
133
|
||||||
|
878
|
||||||
|
292
|
||||||
|
340
|
||||||
|
716
|
||||||
|
128
|
||||||
|
250
|
||||||
|
554
|
||||||
|
482
|
||||||
|
789
|
||||||
|
677
|
||||||
|
308
|
||||||
|
494
|
||||||
|
931
|
||||||
|
144
|
||||||
|
337
|
||||||
|
982
|
||||||
|
713
|
||||||
|
535
|
||||||
|
893
|
||||||
|
939
|
||||||
|
932
|
||||||
|
905
|
||||||
|
805
|
||||||
|
236
|
||||||
|
991
|
||||||
|
781
|
||||||
|
686
|
||||||
|
572
|
||||||
|
951
|
||||||
|
335
|
||||||
|
58
|
||||||
|
303
|
||||||
|
335
|
||||||
|
145
|
||||||
|
608
|
||||||
|
794
|
||||||
|
862
|
||||||
|
792
|
||||||
|
619
|
||||||
|
54
|
||||||
|
292
|
||||||
|
878
|
||||||
|
585
|
||||||
|
293
|
||||||
|
959
|
||||||
|
379
|
||||||
|
20
|
||||||
|
484
|
||||||
|
144
|
||||||
|
678
|
||||||
|
67
|
||||||
|
363
|
||||||
|
946
|
||||||
|
566
|
||||||
|
106
|
||||||
|
442
|
||||||
|
820
|
||||||
|
562
|
||||||
|
109
|
||||||
|
201
|
||||||
|
759
|
||||||
|
481
|
||||||
|
289
|
||||||
|
698
|
||||||
|
25
|
||||||
|
847
|
||||||
|
648
|
||||||
|
733
|
||||||
|
613
|
||||||
|
776
|
||||||
|
989
|
||||||
|
257
|
||||||
|
864
|
||||||
|
32
|
||||||
|
703
|
||||||
|
989
|
||||||
|
465
|
||||||
|
103
|
||||||
|
963
|
||||||
|
515
|
||||||
|
829
|
||||||
|
30
|
||||||
|
303
|
||||||
|
926
|
||||||
|
159
|
||||||
|
586
|
||||||
|
268
|
||||||
|
852
|
||||||
|
953
|
||||||
|
321
|
||||||
|
306
|
||||||
|
978
|
||||||
|
909
|
||||||
|
177
|
||||||
|
835
|
||||||
|
458
|
||||||
|
994
|
||||||
|
885
|
||||||
|
213
|
||||||
|
775
|
||||||
|
385
|
||||||
|
598
|
||||||
|
267
|
||||||
|
754
|
||||||
|
448
|
||||||
|
1000
|
||||||
|
555
|
||||||
|
354
|
||||||
|
657
|
||||||
|
231
|
||||||
|
979
|
||||||
|
265
|
||||||
|
374
|
||||||
|
68
|
||||||
|
197
|
||||||
|
953
|
||||||
|
648
|
||||||
|
153
|
||||||
|
523
|
||||||
|
761
|
||||||
|
827
|
||||||
|
819
|
||||||
|
63
|
||||||
|
782
|
||||||
|
766
|
||||||
|
882
|
||||||
|
404
|
||||||
|
258
|
||||||
|
672
|
||||||
|
883
|
||||||
|
80
|
||||||
|
111
|
||||||
|
212
|
||||||
|
681
|
||||||
|
812
|
||||||
|
911
|
||||||
|
837
|
||||||
|
194
|
||||||
|
161
|
||||||
|
143
|
||||||
|
427
|
||||||
|
981
|
||||||
|
132
|
||||||
|
357
|
||||||
|
605
|
||||||
|
810
|
||||||
|
414
|
||||||
|
20
|
||||||
|
210
|
||||||
|
772
|
||||||
|
882
|
||||||
|
313
|
||||||
|
186
|
||||||
|
578
|
||||||
|
154
|
||||||
|
523
|
||||||
|
339
|
||||||
|
383
|
||||||
|
903
|
||||||
|
29
|
||||||
|
172
|
||||||
|
62
|
||||||
|
314
|
||||||
|
491
|
||||||
|
289
|
||||||
|
550
|
||||||
|
521
|
||||||
|
327
|
||||||
|
794
|
||||||
|
299
|
||||||
|
678
|
||||||
|
769
|
||||||
|
415
|
||||||
|
266
|
||||||
|
77
|
||||||
|
33
|
||||||
|
438
|
||||||
|
233
|
||||||
|
160
|
||||||
|
11
|
||||||
|
523
|
||||||
|
623
|
||||||
|
254
|
||||||
|
29
|
||||||
|
327
|
||||||
|
924
|
||||||
|
938
|
||||||
|
588
|
||||||
|
444
|
||||||
|
976
|
||||||
|
547
|
||||||
|
775
|
||||||
|
638
|
||||||
|
35
|
||||||
|
23
|
||||||
|
203
|
||||||
|
203
|
||||||
|
927
|
||||||
|
149
|
||||||
|
198
|
||||||
|
150
|
||||||
|
370
|
||||||
|
728
|
||||||
|
775
|
||||||
|
818
|
||||||
|
768
|
||||||
|
99
|
||||||
|
40
|
||||||
|
969
|
||||||
|
435
|
||||||
|
49
|
||||||
|
276
|
||||||
|
360
|
||||||
|
964
|
||||||
|
277
|
||||||
|
283
|
||||||
|
825
|
||||||
|
479
|
||||||
|
331
|
||||||
|
471
|
||||||
|
381
|
||||||
|
652
|
||||||
|
264
|
||||||
|
564
|
||||||
|
891
|
||||||
|
638
|
||||||
|
470
|
||||||
|
291
|
||||||
|
101
|
||||||
|
143
|
||||||
|
93
|
||||||
|
663
|
||||||
|
328
|
||||||
|
841
|
||||||
|
881
|
||||||
|
94
|
||||||
|
327
|
||||||
|
2
|
||||||
|
628
|
||||||
|
474
|
||||||
|
905
|
||||||
|
545
|
||||||
|
421
|
||||||
|
453
|
||||||
|
282
|
||||||
|
276
|
||||||
|
24
|
||||||
|
655
|
||||||
|
295
|
||||||
|
48
|
||||||
|
102
|
||||||
|
49
|
||||||
|
676
|
||||||
|
187
|
||||||
|
773
|
||||||
|
169
|
||||||
|
170
|
||||||
|
165
|
||||||
|
405
|
||||||
|
348
|
||||||
|
4
|
||||||
|
654
|
||||||
|
276
|
||||||
|
343
|
||||||
|
153
|
||||||
|
381
|
||||||
|
756
|
||||||
|
753
|
||||||
|
816
|
||||||
|
474
|
||||||
|
186
|
||||||
|
652
|
||||||
|
67
|
||||||
|
689
|
||||||
|
69
|
||||||
|
920
|
||||||
|
880
|
||||||
|
363
|
||||||
|
637
|
||||||
|
524
|
||||||
|
171
|
||||||
|
753
|
||||||
|
12
|
||||||
|
634
|
||||||
|
648
|
||||||
|
668
|
||||||
|
220
|
||||||
|
408
|
||||||
|
348
|
||||||
|
887
|
||||||
|
341
|
||||||
|
738
|
||||||
|
681
|
||||||
|
408
|
||||||
|
377
|
||||||
|
693
|
||||||
|
234
|
||||||
|
83
|
||||||
|
982
|
||||||
|
417
|
||||||
|
222
|
||||||
|
322
|
||||||
|
253
|
||||||
|
494
|
||||||
|
868
|
||||||
|
951
|
||||||
|
344
|
||||||
|
60
|
||||||
|
23
|
||||||
|
41
|
||||||
|
99
|
||||||
|
944
|
||||||
|
723
|
||||||
|
156
|
||||||
|
813
|
||||||
|
5
|
||||||
|
44
|
||||||
|
62
|
||||||
|
899
|
||||||
|
835
|
||||||
|
482
|
||||||
|
469
|
||||||
|
157
|
||||||
|
637
|
||||||
|
295
|
||||||
|
929
|
||||||
|
992
|
||||||
|
234
|
||||||
|
66
|
||||||
|
31
|
||||||
|
170
|
||||||
|
333
|
||||||
|
92
|
||||||
|
185
|
||||||
|
117
|
||||||
|
627
|
||||||
|
82
|
||||||
|
292
|
||||||
|
796
|
||||||
|
840
|
||||||
|
768
|
||||||
|
532
|
||||||
|
981
|
||||||
|
300
|
||||||
|
125
|
||||||
|
958
|
||||||
|
4
|
489
balakhonov_danila_lab_2/files/3.txt
Normal file
@ -0,0 +1,489 @@
|
|||||||
|
522
|
||||||
|
173
|
||||||
|
815
|
||||||
|
671
|
||||||
|
284
|
||||||
|
903
|
||||||
|
477
|
||||||
|
639
|
||||||
|
732
|
||||||
|
143
|
||||||
|
928
|
||||||
|
564
|
||||||
|
812
|
||||||
|
109
|
||||||
|
397
|
||||||
|
249
|
||||||
|
868
|
||||||
|
301
|
||||||
|
848
|
||||||
|
376
|
||||||
|
794
|
||||||
|
99
|
||||||
|
506
|
||||||
|
217
|
||||||
|
645
|
||||||
|
12
|
||||||
|
187
|
||||||
|
930
|
||||||
|
811
|
||||||
|
583
|
||||||
|
684
|
||||||
|
455
|
||||||
|
94
|
||||||
|
499
|
||||||
|
118
|
||||||
|
722
|
||||||
|
603
|
||||||
|
267
|
||||||
|
772
|
||||||
|
947
|
||||||
|
845
|
||||||
|
210
|
||||||
|
495
|
||||||
|
632
|
||||||
|
372
|
||||||
|
930
|
||||||
|
908
|
||||||
|
546
|
||||||
|
327
|
||||||
|
685
|
||||||
|
883
|
||||||
|
235
|
||||||
|
613
|
||||||
|
579
|
||||||
|
762
|
||||||
|
491
|
||||||
|
328
|
||||||
|
672
|
||||||
|
156
|
||||||
|
739
|
||||||
|
1000
|
||||||
|
421
|
||||||
|
731
|
||||||
|
215
|
||||||
|
867
|
||||||
|
610
|
||||||
|
847
|
||||||
|
732
|
||||||
|
204
|
||||||
|
411
|
||||||
|
515
|
||||||
|
150
|
||||||
|
438
|
||||||
|
651
|
||||||
|
174
|
||||||
|
590
|
||||||
|
725
|
||||||
|
963
|
||||||
|
530
|
||||||
|
889
|
||||||
|
577
|
||||||
|
694
|
||||||
|
417
|
||||||
|
261
|
||||||
|
767
|
||||||
|
480
|
||||||
|
934
|
||||||
|
125
|
||||||
|
558
|
||||||
|
282
|
||||||
|
899
|
||||||
|
96
|
||||||
|
653
|
||||||
|
908
|
||||||
|
303
|
||||||
|
774
|
||||||
|
617
|
||||||
|
407
|
||||||
|
482
|
||||||
|
538
|
||||||
|
239
|
||||||
|
472
|
||||||
|
766
|
||||||
|
118
|
||||||
|
920
|
||||||
|
206
|
||||||
|
797
|
||||||
|
420
|
||||||
|
853
|
||||||
|
205
|
||||||
|
340
|
||||||
|
123
|
||||||
|
387
|
||||||
|
497
|
||||||
|
640
|
||||||
|
24
|
||||||
|
999
|
||||||
|
476
|
||||||
|
77
|
||||||
|
920
|
||||||
|
382
|
||||||
|
405
|
||||||
|
55
|
||||||
|
834
|
||||||
|
371
|
||||||
|
167
|
||||||
|
290
|
||||||
|
300
|
||||||
|
611
|
||||||
|
53
|
||||||
|
470
|
||||||
|
81
|
||||||
|
232
|
||||||
|
14
|
||||||
|
451
|
||||||
|
678
|
||||||
|
623
|
||||||
|
564
|
||||||
|
787
|
||||||
|
99
|
||||||
|
648
|
||||||
|
873
|
||||||
|
803
|
||||||
|
888
|
||||||
|
504
|
||||||
|
186
|
||||||
|
256
|
||||||
|
405
|
||||||
|
102
|
||||||
|
999
|
||||||
|
673
|
||||||
|
721
|
||||||
|
434
|
||||||
|
814
|
||||||
|
305
|
||||||
|
582
|
||||||
|
436
|
||||||
|
90
|
||||||
|
774
|
||||||
|
216
|
||||||
|
706
|
||||||
|
855
|
||||||
|
702
|
||||||
|
307
|
||||||
|
59
|
||||||
|
835
|
||||||
|
812
|
||||||
|
234
|
||||||
|
736
|
||||||
|
168
|
||||||
|
523
|
||||||
|
219
|
||||||
|
868
|
||||||
|
365
|
||||||
|
294
|
||||||
|
500
|
||||||
|
207
|
||||||
|
927
|
||||||
|
450
|
||||||
|
521
|
||||||
|
851
|
||||||
|
703
|
||||||
|
992
|
||||||
|
327
|
||||||
|
916
|
||||||
|
554
|
||||||
|
846
|
||||||
|
658
|
||||||
|
88
|
||||||
|
659
|
||||||
|
628
|
||||||
|
764
|
||||||
|
84
|
||||||
|
45
|
||||||
|
10
|
||||||
|
870
|
||||||
|
779
|
||||||
|
320
|
||||||
|
882
|
||||||
|
942
|
||||||
|
93
|
||||||
|
792
|
||||||
|
836
|
||||||
|
137
|
||||||
|
489
|
||||||
|
862
|
||||||
|
391
|
||||||
|
337
|
||||||
|
887
|
||||||
|
114
|
||||||
|
237
|
||||||
|
178
|
||||||
|
874
|
||||||
|
569
|
||||||
|
135
|
||||||
|
919
|
||||||
|
931
|
||||||
|
231
|
||||||
|
50
|
||||||
|
995
|
||||||
|
215
|
||||||
|
658
|
||||||
|
139
|
||||||
|
484
|
||||||
|
292
|
||||||
|
903
|
||||||
|
113
|
||||||
|
755
|
||||||
|
333
|
||||||
|
829
|
||||||
|
942
|
||||||
|
360
|
||||||
|
172
|
||||||
|
689
|
||||||
|
42
|
||||||
|
127
|
||||||
|
799
|
||||||
|
191
|
||||||
|
455
|
||||||
|
533
|
||||||
|
234
|
||||||
|
15
|
||||||
|
404
|
||||||
|
636
|
||||||
|
373
|
||||||
|
884
|
||||||
|
921
|
||||||
|
977
|
||||||
|
113
|
||||||
|
227
|
||||||
|
703
|
||||||
|
173
|
||||||
|
297
|
||||||
|
440
|
||||||
|
604
|
||||||
|
575
|
||||||
|
971
|
||||||
|
855
|
||||||
|
82
|
||||||
|
252
|
||||||
|
589
|
||||||
|
276
|
||||||
|
826
|
||||||
|
206
|
||||||
|
166
|
||||||
|
482
|
||||||
|
375
|
||||||
|
174
|
||||||
|
612
|
||||||
|
818
|
||||||
|
854
|
||||||
|
832
|
||||||
|
809
|
||||||
|
569
|
||||||
|
306
|
||||||
|
993
|
||||||
|
931
|
||||||
|
289
|
||||||
|
148
|
||||||
|
943
|
||||||
|
421
|
||||||
|
784
|
||||||
|
441
|
||||||
|
536
|
||||||
|
426
|
||||||
|
548
|
||||||
|
49
|
||||||
|
687
|
||||||
|
415
|
||||||
|
505
|
||||||
|
951
|
||||||
|
583
|
||||||
|
368
|
||||||
|
172
|
||||||
|
974
|
||||||
|
47
|
||||||
|
173
|
||||||
|
570
|
||||||
|
264
|
||||||
|
754
|
||||||
|
701
|
||||||
|
693
|
||||||
|
796
|
||||||
|
914
|
||||||
|
809
|
||||||
|
310
|
||||||
|
512
|
||||||
|
725
|
||||||
|
963
|
||||||
|
829
|
||||||
|
614
|
||||||
|
220
|
||||||
|
410
|
||||||
|
631
|
||||||
|
860
|
||||||
|
270
|
||||||
|
158
|
||||||
|
168
|
||||||
|
595
|
||||||
|
62
|
||||||
|
715
|
||||||
|
913
|
||||||
|
517
|
||||||
|
157
|
||||||
|
5
|
||||||
|
660
|
||||||
|
274
|
||||||
|
414
|
||||||
|
139
|
||||||
|
300
|
||||||
|
698
|
||||||
|
675
|
||||||
|
263
|
||||||
|
872
|
||||||
|
292
|
||||||
|
142
|
||||||
|
375
|
||||||
|
696
|
||||||
|
895
|
||||||
|
302
|
||||||
|
75
|
||||||
|
576
|
||||||
|
899
|
||||||
|
524
|
||||||
|
362
|
||||||
|
721
|
||||||
|
916
|
||||||
|
883
|
||||||
|
347
|
||||||
|
980
|
||||||
|
29
|
||||||
|
392
|
||||||
|
839
|
||||||
|
971
|
||||||
|
593
|
||||||
|
708
|
||||||
|
804
|
||||||
|
678
|
||||||
|
234
|
||||||
|
719
|
||||||
|
659
|
||||||
|
418
|
||||||
|
914
|
||||||
|
437
|
||||||
|
550
|
||||||
|
418
|
||||||
|
576
|
||||||
|
776
|
||||||
|
293
|
||||||
|
737
|
||||||
|
348
|
||||||
|
292
|
||||||
|
48
|
||||||
|
975
|
||||||
|
547
|
||||||
|
205
|
||||||
|
831
|
||||||
|
783
|
||||||
|
587
|
||||||
|
657
|
||||||
|
132
|
||||||
|
733
|
||||||
|
53
|
||||||
|
700
|
||||||
|
785
|
||||||
|
292
|
||||||
|
332
|
||||||
|
771
|
||||||
|
849
|
||||||
|
994
|
||||||
|
905
|
||||||
|
460
|
||||||
|
420
|
||||||
|
923
|
||||||
|
663
|
||||||
|
134
|
||||||
|
658
|
||||||
|
673
|
||||||
|
618
|
||||||
|
779
|
||||||
|
951
|
||||||
|
244
|
||||||
|
425
|
||||||
|
312
|
||||||
|
436
|
||||||
|
878
|
||||||
|
538
|
||||||
|
236
|
||||||
|
805
|
||||||
|
457
|
||||||
|
897
|
||||||
|
799
|
||||||
|
134
|
||||||
|
469
|
||||||
|
56
|
||||||
|
724
|
||||||
|
370
|
||||||
|
521
|
||||||
|
654
|
||||||
|
20
|
||||||
|
260
|
||||||
|
315
|
||||||
|
525
|
||||||
|
501
|
||||||
|
433
|
||||||
|
90
|
||||||
|
368
|
||||||
|
192
|
||||||
|
162
|
||||||
|
198
|
||||||
|
65
|
||||||
|
652
|
||||||
|
613
|
||||||
|
222
|
||||||
|
160
|
||||||
|
76
|
||||||
|
755
|
||||||
|
541
|
||||||
|
305
|
||||||
|
257
|
||||||
|
669
|
||||||
|
179
|
||||||
|
849
|
||||||
|
878
|
||||||
|
249
|
||||||
|
224
|
||||||
|
4
|
||||||
|
1
|
||||||
|
860
|
||||||
|
967
|
||||||
|
738
|
||||||
|
712
|
||||||
|
281
|
||||||
|
834
|
||||||
|
908
|
||||||
|
774
|
||||||
|
964
|
||||||
|
880
|
||||||
|
902
|
||||||
|
234
|
||||||
|
635
|
||||||
|
138
|
||||||
|
305
|
||||||
|
532
|
||||||
|
585
|
||||||
|
956
|
||||||
|
68
|
||||||
|
21
|
||||||
|
278
|
||||||
|
639
|
||||||
|
622
|
||||||
|
473
|
||||||
|
769
|
||||||
|
161
|
||||||
|
580
|
||||||
|
285
|
||||||
|
204
|
||||||
|
410
|
||||||
|
115
|
||||||
|
430
|
||||||
|
953
|
||||||
|
968
|
||||||
|
593
|
||||||
|
703
|
||||||
|
704
|
||||||
|
469
|
||||||
|
835
|
||||||
|
623
|
||||||
|
991
|
4
balakhonov_danila_lab_2/sigma_app_1/.dockerignore
Normal file
@ -0,0 +1,4 @@
|
|||||||
|
bin/
|
||||||
|
obj/
|
||||||
|
Dockerfile
|
||||||
|
README.md
|
484
balakhonov_danila_lab_2/sigma_app_1/.gitignore
vendored
Normal file
@ -0,0 +1,484 @@
|
|||||||
|
## Ignore Visual Studio temporary files, build results, and
|
||||||
|
## files generated by popular Visual Studio add-ons.
|
||||||
|
##
|
||||||
|
## Get latest from `dotnet new gitignore`
|
||||||
|
|
||||||
|
# dotenv files
|
||||||
|
.env
|
||||||
|
|
||||||
|
# User-specific files
|
||||||
|
*.rsuser
|
||||||
|
*.suo
|
||||||
|
*.user
|
||||||
|
*.userosscache
|
||||||
|
*.sln.docstates
|
||||||
|
|
||||||
|
# User-specific files (MonoDevelop/Xamarin Studio)
|
||||||
|
*.userprefs
|
||||||
|
|
||||||
|
# Mono auto generated files
|
||||||
|
mono_crash.*
|
||||||
|
|
||||||
|
# Build results
|
||||||
|
[Dd]ebug/
|
||||||
|
[Dd]ebugPublic/
|
||||||
|
[Rr]elease/
|
||||||
|
[Rr]eleases/
|
||||||
|
x64/
|
||||||
|
x86/
|
||||||
|
[Ww][Ii][Nn]32/
|
||||||
|
[Aa][Rr][Mm]/
|
||||||
|
[Aa][Rr][Mm]64/
|
||||||
|
bld/
|
||||||
|
[Bb]in/
|
||||||
|
[Oo]bj/
|
||||||
|
[Ll]og/
|
||||||
|
[Ll]ogs/
|
||||||
|
|
||||||
|
# Visual Studio 2015/2017 cache/options directory
|
||||||
|
.vs/
|
||||||
|
# Uncomment if you have tasks that create the project's static files in wwwroot
|
||||||
|
#wwwroot/
|
||||||
|
|
||||||
|
# Visual Studio 2017 auto generated files
|
||||||
|
Generated\ Files/
|
||||||
|
|
||||||
|
# MSTest test Results
|
||||||
|
[Tt]est[Rr]esult*/
|
||||||
|
[Bb]uild[Ll]og.*
|
||||||
|
|
||||||
|
# NUnit
|
||||||
|
*.VisualState.xml
|
||||||
|
TestResult.xml
|
||||||
|
nunit-*.xml
|
||||||
|
|
||||||
|
# Build Results of an ATL Project
|
||||||
|
[Dd]ebugPS/
|
||||||
|
[Rr]eleasePS/
|
||||||
|
dlldata.c
|
||||||
|
|
||||||
|
# Benchmark Results
|
||||||
|
BenchmarkDotNet.Artifacts/
|
||||||
|
|
||||||
|
# .NET
|
||||||
|
project.lock.json
|
||||||
|
project.fragment.lock.json
|
||||||
|
artifacts/
|
||||||
|
|
||||||
|
# Tye
|
||||||
|
.tye/
|
||||||
|
|
||||||
|
# ASP.NET Scaffolding
|
||||||
|
ScaffoldingReadMe.txt
|
||||||
|
|
||||||
|
# StyleCop
|
||||||
|
StyleCopReport.xml
|
||||||
|
|
||||||
|
# Files built by Visual Studio
|
||||||
|
*_i.c
|
||||||
|
*_p.c
|
||||||
|
*_h.h
|
||||||
|
*.ilk
|
||||||
|
*.meta
|
||||||
|
*.obj
|
||||||
|
*.iobj
|
||||||
|
*.pch
|
||||||
|
*.pdb
|
||||||
|
*.ipdb
|
||||||
|
*.pgc
|
||||||
|
*.pgd
|
||||||
|
*.rsp
|
||||||
|
*.sbr
|
||||||
|
*.tlb
|
||||||
|
*.tli
|
||||||
|
*.tlh
|
||||||
|
*.tmp
|
||||||
|
*.tmp_proj
|
||||||
|
*_wpftmp.csproj
|
||||||
|
*.log
|
||||||
|
*.tlog
|
||||||
|
*.vspscc
|
||||||
|
*.vssscc
|
||||||
|
.builds
|
||||||
|
*.pidb
|
||||||
|
*.svclog
|
||||||
|
*.scc
|
||||||
|
|
||||||
|
# Chutzpah Test files
|
||||||
|
_Chutzpah*
|
||||||
|
|
||||||
|
# Visual C++ cache files
|
||||||
|
ipch/
|
||||||
|
*.aps
|
||||||
|
*.ncb
|
||||||
|
*.opendb
|
||||||
|
*.opensdf
|
||||||
|
*.sdf
|
||||||
|
*.cachefile
|
||||||
|
*.VC.db
|
||||||
|
*.VC.VC.opendb
|
||||||
|
|
||||||
|
# Visual Studio profiler
|
||||||
|
*.psess
|
||||||
|
*.vsp
|
||||||
|
*.vspx
|
||||||
|
*.sap
|
||||||
|
|
||||||
|
# Visual Studio Trace Files
|
||||||
|
*.e2e
|
||||||
|
|
||||||
|
# TFS 2012 Local Workspace
|
||||||
|
$tf/
|
||||||
|
|
||||||
|
# Guidance Automation Toolkit
|
||||||
|
*.gpState
|
||||||
|
|
||||||
|
# ReSharper is a .NET coding add-in
|
||||||
|
_ReSharper*/
|
||||||
|
*.[Rr]e[Ss]harper
|
||||||
|
*.DotSettings.user
|
||||||
|
|
||||||
|
# TeamCity is a build add-in
|
||||||
|
_TeamCity*
|
||||||
|
|
||||||
|
# DotCover is a Code Coverage Tool
|
||||||
|
*.dotCover
|
||||||
|
|
||||||
|
# AxoCover is a Code Coverage Tool
|
||||||
|
.axoCover/*
|
||||||
|
!.axoCover/settings.json
|
||||||
|
|
||||||
|
# Coverlet is a free, cross platform Code Coverage Tool
|
||||||
|
coverage*.json
|
||||||
|
coverage*.xml
|
||||||
|
coverage*.info
|
||||||
|
|
||||||
|
# Visual Studio code coverage results
|
||||||
|
*.coverage
|
||||||
|
*.coveragexml
|
||||||
|
|
||||||
|
# NCrunch
|
||||||
|
_NCrunch_*
|
||||||
|
.*crunch*.local.xml
|
||||||
|
nCrunchTemp_*
|
||||||
|
|
||||||
|
# MightyMoose
|
||||||
|
*.mm.*
|
||||||
|
AutoTest.Net/
|
||||||
|
|
||||||
|
# Web workbench (sass)
|
||||||
|
.sass-cache/
|
||||||
|
|
||||||
|
# Installshield output folder
|
||||||
|
[Ee]xpress/
|
||||||
|
|
||||||
|
# DocProject is a documentation generator add-in
|
||||||
|
DocProject/buildhelp/
|
||||||
|
DocProject/Help/*.HxT
|
||||||
|
DocProject/Help/*.HxC
|
||||||
|
DocProject/Help/*.hhc
|
||||||
|
DocProject/Help/*.hhk
|
||||||
|
DocProject/Help/*.hhp
|
||||||
|
DocProject/Help/Html2
|
||||||
|
DocProject/Help/html
|
||||||
|
|
||||||
|
# Click-Once directory
|
||||||
|
publish/
|
||||||
|
|
||||||
|
# Publish Web Output
|
||||||
|
*.[Pp]ublish.xml
|
||||||
|
*.azurePubxml
|
||||||
|
# Note: Comment the next line if you want to checkin your web deploy settings,
|
||||||
|
# but database connection strings (with potential passwords) will be unencrypted
|
||||||
|
*.pubxml
|
||||||
|
*.publishproj
|
||||||
|
|
||||||
|
# Microsoft Azure Web App publish settings. Comment the next line if you want to
|
||||||
|
# checkin your Azure Web App publish settings, but sensitive information contained
|
||||||
|
# in these scripts will be unencrypted
|
||||||
|
PublishScripts/
|
||||||
|
|
||||||
|
# NuGet Packages
|
||||||
|
*.nupkg
|
||||||
|
# NuGet Symbol Packages
|
||||||
|
*.snupkg
|
||||||
|
# The packages folder can be ignored because of Package Restore
|
||||||
|
**/[Pp]ackages/*
|
||||||
|
# except build/, which is used as an MSBuild target.
|
||||||
|
!**/[Pp]ackages/build/
|
||||||
|
# Uncomment if necessary however generally it will be regenerated when needed
|
||||||
|
#!**/[Pp]ackages/repositories.config
|
||||||
|
# NuGet v3's project.json files produces more ignorable files
|
||||||
|
*.nuget.props
|
||||||
|
*.nuget.targets
|
||||||
|
|
||||||
|
# Microsoft Azure Build Output
|
||||||
|
csx/
|
||||||
|
*.build.csdef
|
||||||
|
|
||||||
|
# Microsoft Azure Emulator
|
||||||
|
ecf/
|
||||||
|
rcf/
|
||||||
|
|
||||||
|
# Windows Store app package directories and files
|
||||||
|
AppPackages/
|
||||||
|
BundleArtifacts/
|
||||||
|
Package.StoreAssociation.xml
|
||||||
|
_pkginfo.txt
|
||||||
|
*.appx
|
||||||
|
*.appxbundle
|
||||||
|
*.appxupload
|
||||||
|
|
||||||
|
# Visual Studio cache files
|
||||||
|
# files ending in .cache can be ignored
|
||||||
|
*.[Cc]ache
|
||||||
|
# but keep track of directories ending in .cache
|
||||||
|
!?*.[Cc]ache/
|
||||||
|
|
||||||
|
# Others
|
||||||
|
ClientBin/
|
||||||
|
~$*
|
||||||
|
*~
|
||||||
|
*.dbmdl
|
||||||
|
*.dbproj.schemaview
|
||||||
|
*.jfm
|
||||||
|
*.pfx
|
||||||
|
*.publishsettings
|
||||||
|
orleans.codegen.cs
|
||||||
|
|
||||||
|
# Including strong name files can present a security risk
|
||||||
|
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
|
||||||
|
#*.snk
|
||||||
|
|
||||||
|
# Since there are multiple workflows, uncomment next line to ignore bower_components
|
||||||
|
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
|
||||||
|
#bower_components/
|
||||||
|
|
||||||
|
# RIA/Silverlight projects
|
||||||
|
Generated_Code/
|
||||||
|
|
||||||
|
# Backup & report files from converting an old project file
|
||||||
|
# to a newer Visual Studio version. Backup files are not needed,
|
||||||
|
# because we have git ;-)
|
||||||
|
_UpgradeReport_Files/
|
||||||
|
Backup*/
|
||||||
|
UpgradeLog*.XML
|
||||||
|
UpgradeLog*.htm
|
||||||
|
ServiceFabricBackup/
|
||||||
|
*.rptproj.bak
|
||||||
|
|
||||||
|
# SQL Server files
|
||||||
|
*.mdf
|
||||||
|
*.ldf
|
||||||
|
*.ndf
|
||||||
|
|
||||||
|
# Business Intelligence projects
|
||||||
|
*.rdl.data
|
||||||
|
*.bim.layout
|
||||||
|
*.bim_*.settings
|
||||||
|
*.rptproj.rsuser
|
||||||
|
*- [Bb]ackup.rdl
|
||||||
|
*- [Bb]ackup ([0-9]).rdl
|
||||||
|
*- [Bb]ackup ([0-9][0-9]).rdl
|
||||||
|
|
||||||
|
# Microsoft Fakes
|
||||||
|
FakesAssemblies/
|
||||||
|
|
||||||
|
# GhostDoc plugin setting file
|
||||||
|
*.GhostDoc.xml
|
||||||
|
|
||||||
|
# Node.js Tools for Visual Studio
|
||||||
|
.ntvs_analysis.dat
|
||||||
|
node_modules/
|
||||||
|
|
||||||
|
# Visual Studio 6 build log
|
||||||
|
*.plg
|
||||||
|
|
||||||
|
# Visual Studio 6 workspace options file
|
||||||
|
*.opt
|
||||||
|
|
||||||
|
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
|
||||||
|
*.vbw
|
||||||
|
|
||||||
|
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
|
||||||
|
*.vbp
|
||||||
|
|
||||||
|
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
|
||||||
|
*.dsw
|
||||||
|
*.dsp
|
||||||
|
|
||||||
|
# Visual Studio 6 technical files
|
||||||
|
*.ncb
|
||||||
|
*.aps
|
||||||
|
|
||||||
|
# Visual Studio LightSwitch build output
|
||||||
|
**/*.HTMLClient/GeneratedArtifacts
|
||||||
|
**/*.DesktopClient/GeneratedArtifacts
|
||||||
|
**/*.DesktopClient/ModelManifest.xml
|
||||||
|
**/*.Server/GeneratedArtifacts
|
||||||
|
**/*.Server/ModelManifest.xml
|
||||||
|
_Pvt_Extensions
|
||||||
|
|
||||||
|
# Paket dependency manager
|
||||||
|
.paket/paket.exe
|
||||||
|
paket-files/
|
||||||
|
|
||||||
|
# FAKE - F# Make
|
||||||
|
.fake/
|
||||||
|
|
||||||
|
# CodeRush personal settings
|
||||||
|
.cr/personal
|
||||||
|
|
||||||
|
# Python Tools for Visual Studio (PTVS)
|
||||||
|
__pycache__/
|
||||||
|
*.pyc
|
||||||
|
|
||||||
|
# Cake - Uncomment if you are using it
|
||||||
|
# tools/**
|
||||||
|
# !tools/packages.config
|
||||||
|
|
||||||
|
# Tabs Studio
|
||||||
|
*.tss
|
||||||
|
|
||||||
|
# Telerik's JustMock configuration file
|
||||||
|
*.jmconfig
|
||||||
|
|
||||||
|
# BizTalk build output
|
||||||
|
*.btp.cs
|
||||||
|
*.btm.cs
|
||||||
|
*.odx.cs
|
||||||
|
*.xsd.cs
|
||||||
|
|
||||||
|
# OpenCover UI analysis results
|
||||||
|
OpenCover/
|
||||||
|
|
||||||
|
# Azure Stream Analytics local run output
|
||||||
|
ASALocalRun/
|
||||||
|
|
||||||
|
# MSBuild Binary and Structured Log
|
||||||
|
*.binlog
|
||||||
|
|
||||||
|
# NVidia Nsight GPU debugger configuration file
|
||||||
|
*.nvuser
|
||||||
|
|
||||||
|
# MFractors (Xamarin productivity tool) working folder
|
||||||
|
.mfractor/
|
||||||
|
|
||||||
|
# Local History for Visual Studio
|
||||||
|
.localhistory/
|
||||||
|
|
||||||
|
# Visual Studio History (VSHistory) files
|
||||||
|
.vshistory/
|
||||||
|
|
||||||
|
# BeatPulse healthcheck temp database
|
||||||
|
healthchecksdb
|
||||||
|
|
||||||
|
# Backup folder for Package Reference Convert tool in Visual Studio 2017
|
||||||
|
MigrationBackup/
|
||||||
|
|
||||||
|
# Ionide (cross platform F# VS Code tools) working folder
|
||||||
|
.ionide/
|
||||||
|
|
||||||
|
# Fody - auto-generated XML schema
|
||||||
|
FodyWeavers.xsd
|
||||||
|
|
||||||
|
# VS Code files for those working on multiple tools
|
||||||
|
.vscode/*
|
||||||
|
!.vscode/settings.json
|
||||||
|
!.vscode/tasks.json
|
||||||
|
!.vscode/launch.json
|
||||||
|
!.vscode/extensions.json
|
||||||
|
*.code-workspace
|
||||||
|
|
||||||
|
# Local History for Visual Studio Code
|
||||||
|
.history/
|
||||||
|
|
||||||
|
# Windows Installer files from build outputs
|
||||||
|
*.cab
|
||||||
|
*.msi
|
||||||
|
*.msix
|
||||||
|
*.msm
|
||||||
|
*.msp
|
||||||
|
|
||||||
|
# JetBrains Rider
|
||||||
|
*.sln.iml
|
||||||
|
.idea
|
||||||
|
|
||||||
|
##
|
||||||
|
## Visual studio for Mac
|
||||||
|
##
|
||||||
|
|
||||||
|
|
||||||
|
# globs
|
||||||
|
Makefile.in
|
||||||
|
*.userprefs
|
||||||
|
*.usertasks
|
||||||
|
config.make
|
||||||
|
config.status
|
||||||
|
aclocal.m4
|
||||||
|
install-sh
|
||||||
|
autom4te.cache/
|
||||||
|
*.tar.gz
|
||||||
|
tarballs/
|
||||||
|
test-results/
|
||||||
|
|
||||||
|
# Mac bundle stuff
|
||||||
|
*.dmg
|
||||||
|
*.app
|
||||||
|
|
||||||
|
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
|
||||||
|
# General
|
||||||
|
.DS_Store
|
||||||
|
.AppleDouble
|
||||||
|
.LSOverride
|
||||||
|
|
||||||
|
# Icon must end with two \r
|
||||||
|
Icon
|
||||||
|
|
||||||
|
|
||||||
|
# Thumbnails
|
||||||
|
._*
|
||||||
|
|
||||||
|
# Files that might appear in the root of a volume
|
||||||
|
.DocumentRevisions-V100
|
||||||
|
.fseventsd
|
||||||
|
.Spotlight-V100
|
||||||
|
.TemporaryItems
|
||||||
|
.Trashes
|
||||||
|
.VolumeIcon.icns
|
||||||
|
.com.apple.timemachine.donotpresent
|
||||||
|
|
||||||
|
# Directories potentially created on remote AFP share
|
||||||
|
.AppleDB
|
||||||
|
.AppleDesktop
|
||||||
|
Network Trash Folder
|
||||||
|
Temporary Items
|
||||||
|
.apdisk
|
||||||
|
|
||||||
|
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
|
||||||
|
# Windows thumbnail cache files
|
||||||
|
Thumbs.db
|
||||||
|
ehthumbs.db
|
||||||
|
ehthumbs_vista.db
|
||||||
|
|
||||||
|
# Dump file
|
||||||
|
*.stackdump
|
||||||
|
|
||||||
|
# Folder config file
|
||||||
|
[Dd]esktop.ini
|
||||||
|
|
||||||
|
# Recycle Bin used on file shares
|
||||||
|
$RECYCLE.BIN/
|
||||||
|
|
||||||
|
# Windows Installer files
|
||||||
|
*.cab
|
||||||
|
*.msi
|
||||||
|
*.msix
|
||||||
|
*.msm
|
||||||
|
*.msp
|
||||||
|
|
||||||
|
# Windows shortcuts
|
||||||
|
*.lnk
|
||||||
|
|
||||||
|
# Vim temporary swap files
|
||||||
|
*.swp
|
14
balakhonov_danila_lab_2/sigma_app_1/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
|
||||||
|
WORKDIR /App
|
||||||
|
|
||||||
|
# Copy everything
|
||||||
|
COPY . ./
|
||||||
|
# Restore as distinct layers
|
||||||
|
RUN dotnet restore
|
||||||
|
# Build and publish a release
|
||||||
|
RUN dotnet publish -c Release -o out
|
||||||
|
|
||||||
|
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS runtime
|
||||||
|
WORKDIR /App
|
||||||
|
COPY --from=build /App/out .
|
||||||
|
ENTRYPOINT ["dotnet", "sigma_app_1.dll"]
|
14
balakhonov_danila_lab_2/sigma_app_1/Program.fs
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
let PATH = @"/var/data/"
|
||||||
|
let RESULT_PATH = @"/var/result/data.txt"
|
||||||
|
|
||||||
|
let getFiles(path: string): seq<string> =
|
||||||
|
System.IO.Directory.EnumerateFiles(path)
|
||||||
|
|
||||||
|
let getRandFile(files: seq<string>) =
|
||||||
|
let rand = System.Random()
|
||||||
|
let index = rand.Next(Seq.length files)
|
||||||
|
Seq.item index files
|
||||||
|
|
||||||
|
let files = getFiles(PATH)
|
||||||
|
let randFile = getRandFile(files)
|
||||||
|
System.IO.File.Copy(randFile, RESULT_PATH)
|
4
balakhonov_danila_lab_2/sigma_app_1/README.md
Normal file
@ -0,0 +1,4 @@
|
|||||||
|
# Первая программа лабораторной работы номер 2
|
||||||
|
> Вариант 6
|
||||||
|
>
|
||||||
|
> Берёт из каталога `/var/data` случайный файл и перекладывает его в `/var/result/data.txt`
|
12
balakhonov_danila_lab_2/sigma_app_1/sigma_app_1.fsproj
Normal file
@ -0,0 +1,12 @@
|
|||||||
|
<Project Sdk="Microsoft.NET.Sdk">
|
||||||
|
|
||||||
|
<PropertyGroup>
|
||||||
|
<OutputType>Exe</OutputType>
|
||||||
|
<TargetFramework>net8.0</TargetFramework>
|
||||||
|
</PropertyGroup>
|
||||||
|
|
||||||
|
<ItemGroup>
|
||||||
|
<Compile Include="Program.fs" />
|
||||||
|
</ItemGroup>
|
||||||
|
|
||||||
|
</Project>
|
4
balakhonov_danila_lab_2/skibidi_app_2/.dockerignore
Normal file
@ -0,0 +1,4 @@
|
|||||||
|
bin/
|
||||||
|
obj/
|
||||||
|
Dockerfile
|
||||||
|
README.md
|
484
balakhonov_danila_lab_2/skibidi_app_2/.gitignore
vendored
Normal file
@ -0,0 +1,484 @@
|
|||||||
|
## Ignore Visual Studio temporary files, build results, and
|
||||||
|
## files generated by popular Visual Studio add-ons.
|
||||||
|
##
|
||||||
|
## Get latest from `dotnet new gitignore`
|
||||||
|
|
||||||
|
# dotenv files
|
||||||
|
.env
|
||||||
|
|
||||||
|
# User-specific files
|
||||||
|
*.rsuser
|
||||||
|
*.suo
|
||||||
|
*.user
|
||||||
|
*.userosscache
|
||||||
|
*.sln.docstates
|
||||||
|
|
||||||
|
# User-specific files (MonoDevelop/Xamarin Studio)
|
||||||
|
*.userprefs
|
||||||
|
|
||||||
|
# Mono auto generated files
|
||||||
|
mono_crash.*
|
||||||
|
|
||||||
|
# Build results
|
||||||
|
[Dd]ebug/
|
||||||
|
[Dd]ebugPublic/
|
||||||
|
[Rr]elease/
|
||||||
|
[Rr]eleases/
|
||||||
|
x64/
|
||||||
|
x86/
|
||||||
|
[Ww][Ii][Nn]32/
|
||||||
|
[Aa][Rr][Mm]/
|
||||||
|
[Aa][Rr][Mm]64/
|
||||||
|
bld/
|
||||||
|
[Bb]in/
|
||||||
|
[Oo]bj/
|
||||||
|
[Ll]og/
|
||||||
|
[Ll]ogs/
|
||||||
|
|
||||||
|
# Visual Studio 2015/2017 cache/options directory
|
||||||
|
.vs/
|
||||||
|
# Uncomment if you have tasks that create the project's static files in wwwroot
|
||||||
|
#wwwroot/
|
||||||
|
|
||||||
|
# Visual Studio 2017 auto generated files
|
||||||
|
Generated\ Files/
|
||||||
|
|
||||||
|
# MSTest test Results
|
||||||
|
[Tt]est[Rr]esult*/
|
||||||
|
[Bb]uild[Ll]og.*
|
||||||
|
|
||||||
|
# NUnit
|
||||||
|
*.VisualState.xml
|
||||||
|
TestResult.xml
|
||||||
|
nunit-*.xml
|
||||||
|
|
||||||
|
# Build Results of an ATL Project
|
||||||
|
[Dd]ebugPS/
|
||||||
|
[Rr]eleasePS/
|
||||||
|
dlldata.c
|
||||||
|
|
||||||
|
# Benchmark Results
|
||||||
|
BenchmarkDotNet.Artifacts/
|
||||||
|
|
||||||
|
# .NET
|
||||||
|
project.lock.json
|
||||||
|
project.fragment.lock.json
|
||||||
|
artifacts/
|
||||||
|
|
||||||
|
# Tye
|
||||||
|
.tye/
|
||||||
|
|
||||||
|
# ASP.NET Scaffolding
|
||||||
|
ScaffoldingReadMe.txt
|
||||||
|
|
||||||
|
# StyleCop
|
||||||
|
StyleCopReport.xml
|
||||||
|
|
||||||
|
# Files built by Visual Studio
|
||||||
|
*_i.c
|
||||||
|
*_p.c
|
||||||
|
*_h.h
|
||||||
|
*.ilk
|
||||||
|
*.meta
|
||||||
|
*.obj
|
||||||
|
*.iobj
|
||||||
|
*.pch
|
||||||
|
*.pdb
|
||||||
|
*.ipdb
|
||||||
|
*.pgc
|
||||||
|
*.pgd
|
||||||
|
*.rsp
|
||||||
|
*.sbr
|
||||||
|
*.tlb
|
||||||
|
*.tli
|
||||||
|
*.tlh
|
||||||
|
*.tmp
|
||||||
|
*.tmp_proj
|
||||||
|
*_wpftmp.csproj
|
||||||
|
*.log
|
||||||
|
*.tlog
|
||||||
|
*.vspscc
|
||||||
|
*.vssscc
|
||||||
|
.builds
|
||||||
|
*.pidb
|
||||||
|
*.svclog
|
||||||
|
*.scc
|
||||||
|
|
||||||
|
# Chutzpah Test files
|
||||||
|
_Chutzpah*
|
||||||
|
|
||||||
|
# Visual C++ cache files
|
||||||
|
ipch/
|
||||||
|
*.aps
|
||||||
|
*.ncb
|
||||||
|
*.opendb
|
||||||
|
*.opensdf
|
||||||
|
*.sdf
|
||||||
|
*.cachefile
|
||||||
|
*.VC.db
|
||||||
|
*.VC.VC.opendb
|
||||||
|
|
||||||
|
# Visual Studio profiler
|
||||||
|
*.psess
|
||||||
|
*.vsp
|
||||||
|
*.vspx
|
||||||
|
*.sap
|
||||||
|
|
||||||
|
# Visual Studio Trace Files
|
||||||
|
*.e2e
|
||||||
|
|
||||||
|
# TFS 2012 Local Workspace
|
||||||
|
$tf/
|
||||||
|
|
||||||
|
# Guidance Automation Toolkit
|
||||||
|
*.gpState
|
||||||
|
|
||||||
|
# ReSharper is a .NET coding add-in
|
||||||
|
_ReSharper*/
|
||||||
|
*.[Rr]e[Ss]harper
|
||||||
|
*.DotSettings.user
|
||||||
|
|
||||||
|
# TeamCity is a build add-in
|
||||||
|
_TeamCity*
|
||||||
|
|
||||||
|
# DotCover is a Code Coverage Tool
|
||||||
|
*.dotCover
|
||||||
|
|
||||||
|
# AxoCover is a Code Coverage Tool
|
||||||
|
.axoCover/*
|
||||||
|
!.axoCover/settings.json
|
||||||
|
|
||||||
|
# Coverlet is a free, cross platform Code Coverage Tool
|
||||||
|
coverage*.json
|
||||||
|
coverage*.xml
|
||||||
|
coverage*.info
|
||||||
|
|
||||||
|
# Visual Studio code coverage results
|
||||||
|
*.coverage
|
||||||
|
*.coveragexml
|
||||||
|
|
||||||
|
# NCrunch
|
||||||
|
_NCrunch_*
|
||||||
|
.*crunch*.local.xml
|
||||||
|
nCrunchTemp_*
|
||||||
|
|
||||||
|
# MightyMoose
|
||||||
|
*.mm.*
|
||||||
|
AutoTest.Net/
|
||||||
|
|
||||||
|
# Web workbench (sass)
|
||||||
|
.sass-cache/
|
||||||
|
|
||||||
|
# Installshield output folder
|
||||||
|
[Ee]xpress/
|
||||||
|
|
||||||
|
# DocProject is a documentation generator add-in
|
||||||
|
DocProject/buildhelp/
|
||||||
|
DocProject/Help/*.HxT
|
||||||
|
DocProject/Help/*.HxC
|
||||||
|
DocProject/Help/*.hhc
|
||||||
|
DocProject/Help/*.hhk
|
||||||
|
DocProject/Help/*.hhp
|
||||||
|
DocProject/Help/Html2
|
||||||
|
DocProject/Help/html
|
||||||
|
|
||||||
|
# Click-Once directory
|
||||||
|
publish/
|
||||||
|
|
||||||
|
# Publish Web Output
|
||||||
|
*.[Pp]ublish.xml
|
||||||
|
*.azurePubxml
|
||||||
|
# Note: Comment the next line if you want to checkin your web deploy settings,
|
||||||
|
# but database connection strings (with potential passwords) will be unencrypted
|
||||||
|
*.pubxml
|
||||||
|
*.publishproj
|
||||||
|
|
||||||
|
# Microsoft Azure Web App publish settings. Comment the next line if you want to
|
||||||
|
# checkin your Azure Web App publish settings, but sensitive information contained
|
||||||
|
# in these scripts will be unencrypted
|
||||||
|
PublishScripts/
|
||||||
|
|
||||||
|
# NuGet Packages
|
||||||
|
*.nupkg
|
||||||
|
# NuGet Symbol Packages
|
||||||
|
*.snupkg
|
||||||
|
# The packages folder can be ignored because of Package Restore
|
||||||
|
**/[Pp]ackages/*
|
||||||
|
# except build/, which is used as an MSBuild target.
|
||||||
|
!**/[Pp]ackages/build/
|
||||||
|
# Uncomment if necessary however generally it will be regenerated when needed
|
||||||
|
#!**/[Pp]ackages/repositories.config
|
||||||
|
# NuGet v3's project.json files produces more ignorable files
|
||||||
|
*.nuget.props
|
||||||
|
*.nuget.targets
|
||||||
|
|
||||||
|
# Microsoft Azure Build Output
|
||||||
|
csx/
|
||||||
|
*.build.csdef
|
||||||
|
|
||||||
|
# Microsoft Azure Emulator
|
||||||
|
ecf/
|
||||||
|
rcf/
|
||||||
|
|
||||||
|
# Windows Store app package directories and files
|
||||||
|
AppPackages/
|
||||||
|
BundleArtifacts/
|
||||||
|
Package.StoreAssociation.xml
|
||||||
|
_pkginfo.txt
|
||||||
|
*.appx
|
||||||
|
*.appxbundle
|
||||||
|
*.appxupload
|
||||||
|
|
||||||
|
# Visual Studio cache files
|
||||||
|
# files ending in .cache can be ignored
|
||||||
|
*.[Cc]ache
|
||||||
|
# but keep track of directories ending in .cache
|
||||||
|
!?*.[Cc]ache/
|
||||||
|
|
||||||
|
# Others
|
||||||
|
ClientBin/
|
||||||
|
~$*
|
||||||
|
*~
|
||||||
|
*.dbmdl
|
||||||
|
*.dbproj.schemaview
|
||||||
|
*.jfm
|
||||||
|
*.pfx
|
||||||
|
*.publishsettings
|
||||||
|
orleans.codegen.cs
|
||||||
|
|
||||||
|
# Including strong name files can present a security risk
|
||||||
|
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
|
||||||
|
#*.snk
|
||||||
|
|
||||||
|
# Since there are multiple workflows, uncomment next line to ignore bower_components
|
||||||
|
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
|
||||||
|
#bower_components/
|
||||||
|
|
||||||
|
# RIA/Silverlight projects
|
||||||
|
Generated_Code/
|
||||||
|
|
||||||
|
# Backup & report files from converting an old project file
|
||||||
|
# to a newer Visual Studio version. Backup files are not needed,
|
||||||
|
# because we have git ;-)
|
||||||
|
_UpgradeReport_Files/
|
||||||
|
Backup*/
|
||||||
|
UpgradeLog*.XML
|
||||||
|
UpgradeLog*.htm
|
||||||
|
ServiceFabricBackup/
|
||||||
|
*.rptproj.bak
|
||||||
|
|
||||||
|
# SQL Server files
|
||||||
|
*.mdf
|
||||||
|
*.ldf
|
||||||
|
*.ndf
|
||||||
|
|
||||||
|
# Business Intelligence projects
|
||||||
|
*.rdl.data
|
||||||
|
*.bim.layout
|
||||||
|
*.bim_*.settings
|
||||||
|
*.rptproj.rsuser
|
||||||
|
*- [Bb]ackup.rdl
|
||||||
|
*- [Bb]ackup ([0-9]).rdl
|
||||||
|
*- [Bb]ackup ([0-9][0-9]).rdl
|
||||||
|
|
||||||
|
# Microsoft Fakes
|
||||||
|
FakesAssemblies/
|
||||||
|
|
||||||
|
# GhostDoc plugin setting file
|
||||||
|
*.GhostDoc.xml
|
||||||
|
|
||||||
|
# Node.js Tools for Visual Studio
|
||||||
|
.ntvs_analysis.dat
|
||||||
|
node_modules/
|
||||||
|
|
||||||
|
# Visual Studio 6 build log
|
||||||
|
*.plg
|
||||||
|
|
||||||
|
# Visual Studio 6 workspace options file
|
||||||
|
*.opt
|
||||||
|
|
||||||
|
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
|
||||||
|
*.vbw
|
||||||
|
|
||||||
|
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
|
||||||
|
*.vbp
|
||||||
|
|
||||||
|
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
|
||||||
|
*.dsw
|
||||||
|
*.dsp
|
||||||
|
|
||||||
|
# Visual Studio 6 technical files
|
||||||
|
*.ncb
|
||||||
|
*.aps
|
||||||
|
|
||||||
|
# Visual Studio LightSwitch build output
|
||||||
|
**/*.HTMLClient/GeneratedArtifacts
|
||||||
|
**/*.DesktopClient/GeneratedArtifacts
|
||||||
|
**/*.DesktopClient/ModelManifest.xml
|
||||||
|
**/*.Server/GeneratedArtifacts
|
||||||
|
**/*.Server/ModelManifest.xml
|
||||||
|
_Pvt_Extensions
|
||||||
|
|
||||||
|
# Paket dependency manager
|
||||||
|
.paket/paket.exe
|
||||||
|
paket-files/
|
||||||
|
|
||||||
|
# FAKE - F# Make
|
||||||
|
.fake/
|
||||||
|
|
||||||
|
# CodeRush personal settings
|
||||||
|
.cr/personal
|
||||||
|
|
||||||
|
# Python Tools for Visual Studio (PTVS)
|
||||||
|
__pycache__/
|
||||||
|
*.pyc
|
||||||
|
|
||||||
|
# Cake - Uncomment if you are using it
|
||||||
|
# tools/**
|
||||||
|
# !tools/packages.config
|
||||||
|
|
||||||
|
# Tabs Studio
|
||||||
|
*.tss
|
||||||
|
|
||||||
|
# Telerik's JustMock configuration file
|
||||||
|
*.jmconfig
|
||||||
|
|
||||||
|
# BizTalk build output
|
||||||
|
*.btp.cs
|
||||||
|
*.btm.cs
|
||||||
|
*.odx.cs
|
||||||
|
*.xsd.cs
|
||||||
|
|
||||||
|
# OpenCover UI analysis results
|
||||||
|
OpenCover/
|
||||||
|
|
||||||
|
# Azure Stream Analytics local run output
|
||||||
|
ASALocalRun/
|
||||||
|
|
||||||
|
# MSBuild Binary and Structured Log
|
||||||
|
*.binlog
|
||||||
|
|
||||||
|
# NVidia Nsight GPU debugger configuration file
|
||||||
|
*.nvuser
|
||||||
|
|
||||||
|
# MFractors (Xamarin productivity tool) working folder
|
||||||
|
.mfractor/
|
||||||
|
|
||||||
|
# Local History for Visual Studio
|
||||||
|
.localhistory/
|
||||||
|
|
||||||
|
# Visual Studio History (VSHistory) files
|
||||||
|
.vshistory/
|
||||||
|
|
||||||
|
# BeatPulse healthcheck temp database
|
||||||
|
healthchecksdb
|
||||||
|
|
||||||
|
# Backup folder for Package Reference Convert tool in Visual Studio 2017
|
||||||
|
MigrationBackup/
|
||||||
|
|
||||||
|
# Ionide (cross platform F# VS Code tools) working folder
|
||||||
|
.ionide/
|
||||||
|
|
||||||
|
# Fody - auto-generated XML schema
|
||||||
|
FodyWeavers.xsd
|
||||||
|
|
||||||
|
# VS Code files for those working on multiple tools
|
||||||
|
.vscode/*
|
||||||
|
!.vscode/settings.json
|
||||||
|
!.vscode/tasks.json
|
||||||
|
!.vscode/launch.json
|
||||||
|
!.vscode/extensions.json
|
||||||
|
*.code-workspace
|
||||||
|
|
||||||
|
# Local History for Visual Studio Code
|
||||||
|
.history/
|
||||||
|
|
||||||
|
# Windows Installer files from build outputs
|
||||||
|
*.cab
|
||||||
|
*.msi
|
||||||
|
*.msix
|
||||||
|
*.msm
|
||||||
|
*.msp
|
||||||
|
|
||||||
|
# JetBrains Rider
|
||||||
|
*.sln.iml
|
||||||
|
.idea
|
||||||
|
|
||||||
|
##
|
||||||
|
## Visual studio for Mac
|
||||||
|
##
|
||||||
|
|
||||||
|
|
||||||
|
# globs
|
||||||
|
Makefile.in
|
||||||
|
*.userprefs
|
||||||
|
*.usertasks
|
||||||
|
config.make
|
||||||
|
config.status
|
||||||
|
aclocal.m4
|
||||||
|
install-sh
|
||||||
|
autom4te.cache/
|
||||||
|
*.tar.gz
|
||||||
|
tarballs/
|
||||||
|
test-results/
|
||||||
|
|
||||||
|
# Mac bundle stuff
|
||||||
|
*.dmg
|
||||||
|
*.app
|
||||||
|
|
||||||
|
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
|
||||||
|
# General
|
||||||
|
.DS_Store
|
||||||
|
.AppleDouble
|
||||||
|
.LSOverride
|
||||||
|
|
||||||
|
# Icon must end with two \r
|
||||||
|
Icon
|
||||||
|
|
||||||
|
|
||||||
|
# Thumbnails
|
||||||
|
._*
|
||||||
|
|
||||||
|
# Files that might appear in the root of a volume
|
||||||
|
.DocumentRevisions-V100
|
||||||
|
.fseventsd
|
||||||
|
.Spotlight-V100
|
||||||
|
.TemporaryItems
|
||||||
|
.Trashes
|
||||||
|
.VolumeIcon.icns
|
||||||
|
.com.apple.timemachine.donotpresent
|
||||||
|
|
||||||
|
# Directories potentially created on remote AFP share
|
||||||
|
.AppleDB
|
||||||
|
.AppleDesktop
|
||||||
|
Network Trash Folder
|
||||||
|
Temporary Items
|
||||||
|
.apdisk
|
||||||
|
|
||||||
|
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
|
||||||
|
# Windows thumbnail cache files
|
||||||
|
Thumbs.db
|
||||||
|
ehthumbs.db
|
||||||
|
ehthumbs_vista.db
|
||||||
|
|
||||||
|
# Dump file
|
||||||
|
*.stackdump
|
||||||
|
|
||||||
|
# Folder config file
|
||||||
|
[Dd]esktop.ini
|
||||||
|
|
||||||
|
# Recycle Bin used on file shares
|
||||||
|
$RECYCLE.BIN/
|
||||||
|
|
||||||
|
# Windows Installer files
|
||||||
|
*.cab
|
||||||
|
*.msi
|
||||||
|
*.msix
|
||||||
|
*.msm
|
||||||
|
*.msp
|
||||||
|
|
||||||
|
# Windows shortcuts
|
||||||
|
*.lnk
|
||||||
|
|
||||||
|
# Vim temporary swap files
|
||||||
|
*.swp
|
14
balakhonov_danila_lab_2/skibidi_app_2/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
|
||||||
|
WORKDIR /App
|
||||||
|
|
||||||
|
# Copy everything
|
||||||
|
COPY . ./
|
||||||
|
# Restore as distinct layers
|
||||||
|
RUN dotnet restore
|
||||||
|
# Build and publish a release
|
||||||
|
RUN dotnet publish -c Release -o out
|
||||||
|
|
||||||
|
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS runtime
|
||||||
|
WORKDIR /App
|
||||||
|
COPY --from=build /App/out .
|
||||||
|
ENTRYPOINT ["dotnet", "skibidi_app_2.dll"]
|
16
balakhonov_danila_lab_2/skibidi_app_2/Program.fs
Normal file
@ -0,0 +1,16 @@
|
|||||||
|
let INPUT_FILE = @"/var/result/data.txt"
|
||||||
|
let OUTPUT_FILE = @"/var/result/result.txt"
|
||||||
|
|
||||||
|
let getNumbersFromFile(path: string): seq<int> =
|
||||||
|
System.IO.File.ReadLines(path)
|
||||||
|
|> Seq.map int
|
||||||
|
|
||||||
|
let getCountOfMaxNumber(numbers: seq<int>): int =
|
||||||
|
numbers
|
||||||
|
|> Seq.max
|
||||||
|
|> fun maxNum -> Seq.filter ((=) maxNum) numbers
|
||||||
|
|> Seq.length
|
||||||
|
|
||||||
|
let numbers = getNumbersFromFile(INPUT_FILE)
|
||||||
|
let count = getCountOfMaxNumber(numbers)
|
||||||
|
System.IO.File.WriteAllText(OUTPUT_FILE, string count)
|
4
balakhonov_danila_lab_2/skibidi_app_2/README.md
Normal file
@ -0,0 +1,4 @@
|
|||||||
|
# Вторая программа лабораторной работы номер 2
|
||||||
|
> Вариант 3
|
||||||
|
>
|
||||||
|
> Ищет набольшее число из файла `/var/result/data.txt` и сохраняет количество таких чисел из последовательности в `/var/result/result.txt`
|
12
balakhonov_danila_lab_2/skibidi_app_2/skibidi_app_2.fsproj
Normal file
@ -0,0 +1,12 @@
|
|||||||
|
<Project Sdk="Microsoft.NET.Sdk">
|
||||||
|
|
||||||
|
<PropertyGroup>
|
||||||
|
<OutputType>Exe</OutputType>
|
||||||
|
<TargetFramework>net8.0</TargetFramework>
|
||||||
|
</PropertyGroup>
|
||||||
|
|
||||||
|
<ItemGroup>
|
||||||
|
<Compile Include="Program.fs" />
|
||||||
|
</ItemGroup>
|
||||||
|
|
||||||
|
</Project>
|
2
bazunov_andrew_lab_1/.gitignore
vendored
Normal file
@ -0,0 +1,2 @@
|
|||||||
|
ollama
|
||||||
|
./ollama
|
33
bazunov_andrew_lab_1/README.md
Normal file
@ -0,0 +1,33 @@
|
|||||||
|
# Распределенные вычисления и приложения Л1
|
||||||
|
## _Автор Базунов Андрей Игревич ПИбд-42_
|
||||||
|
|
||||||
|
В качестве сервисов были выбраны:
|
||||||
|
- 1.Ollama (_Сервис для использования LLMs моделей_)
|
||||||
|
- 2.Open Web Ui (_Сервис для удобного общения с моделью из сервиса Ollama_)
|
||||||
|
- 3.Gitea (_Гит сервис_)
|
||||||
|
|
||||||
|
# Docker
|
||||||
|
|
||||||
|
>Перед исполнением вполняем установку docker и проверяем версию
|
||||||
|
|
||||||
|
```sh
|
||||||
|
docker-compose --version
|
||||||
|
```
|
||||||
|
|
||||||
|
>Далее производим настройку файла docker-compose.yaml и запускаем контейнер
|
||||||
|
|
||||||
|
```sh
|
||||||
|
docker-compose up -d
|
||||||
|
```
|
||||||
|
|
||||||
|
>Для завершения работы контейнера используем команду
|
||||||
|
```sh
|
||||||
|
docker-compose down
|
||||||
|
```
|
||||||
|
---
|
||||||
|
> Замечание: после запуска контейнера, необходимо перейти в контейнер **ollamа** и выполнить установку модели [gemma2](https://ollama.com/library/gemma2:2b)
|
||||||
|
> ```sh
|
||||||
|
> docker-compose exec ollama ollama run ollama run gemma2:2b
|
||||||
|
> ```
|
||||||
|
---
|
||||||
|
Далее можно использовать веб сервис Open Web Ui по адресу **localhost:8080** для общения с моделью и Gitea по адресу **localhost:3000** - [демонстрация работы](https://vk.com/video/@viltskaa?z=video236673313_456239574%2Fpl_236673313_-2)
|
61
bazunov_andrew_lab_1/docker-compose.yml
Normal file
@ -0,0 +1,61 @@
|
|||||||
|
services:
|
||||||
|
gitea: # Имя сервиса
|
||||||
|
image: gitea/gitea:latest # Имя образа
|
||||||
|
container_name: gitea # Имя контейнера, может быть произовольным
|
||||||
|
ports:
|
||||||
|
- "3000:3000" # Проброс порта Gitea на хост
|
||||||
|
volumes: # хранилище
|
||||||
|
- data:/data
|
||||||
|
environment: # переменные окружения
|
||||||
|
USER_UID: 1000
|
||||||
|
USER_GID: 1000
|
||||||
|
|
||||||
|
ollama:
|
||||||
|
image: ollama/ollama:latest
|
||||||
|
container_name: ollama
|
||||||
|
restart: always
|
||||||
|
ports:
|
||||||
|
- 7869:11434
|
||||||
|
pull_policy: always
|
||||||
|
tty: true
|
||||||
|
volumes:
|
||||||
|
- .:/code
|
||||||
|
- ./ollama/ollama:/root/.ollama # Директория для данных Ollama
|
||||||
|
environment:
|
||||||
|
- OLLAMA_KEEP_ALIVE=24h
|
||||||
|
- OLLAMA_HOST=0.0.0.0 # Указываем хост для API Ollama
|
||||||
|
networks:
|
||||||
|
- ollama-docker
|
||||||
|
command: ["serve"] # Запускаем Ollama в режиме сервера
|
||||||
|
|
||||||
|
ollama-webui:
|
||||||
|
image: ghcr.io/open-webui/open-webui:main # Образ Open Web UI
|
||||||
|
container_name: ollama-webui
|
||||||
|
restart: unless-stopped
|
||||||
|
volumes:
|
||||||
|
- ./ollama/ollama-webui:/app/backend/data
|
||||||
|
ports:
|
||||||
|
- 8080:8080 # Порт для веб-интерфейса
|
||||||
|
environment: # https://docs.openwebui.com/getting-started/env-configuration#default_models
|
||||||
|
- OLLAMA_BASE_URLS=http://host.docker.internal:7869
|
||||||
|
- ENV=dev
|
||||||
|
- WEBUI_AUTH=False
|
||||||
|
- WEBUI_NAME=Viltskaa AI
|
||||||
|
- WEBUI_URL=http://localhost:8080
|
||||||
|
- WEBUI_SECRET_KEY=t0p-s3cr3t
|
||||||
|
depends_on:
|
||||||
|
- ollama
|
||||||
|
extra_hosts:
|
||||||
|
- host.docker.internal:host-gateway
|
||||||
|
networks:
|
||||||
|
- ollama-docker
|
||||||
|
|
||||||
|
networks:
|
||||||
|
ollama-docker:
|
||||||
|
external: false
|
||||||
|
|
||||||
|
volumes:
|
||||||
|
ollama:
|
||||||
|
driver: local
|
||||||
|
data:
|
||||||
|
driver: local
|
14
bazunov_andrew_lab_2/FileCreator/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
# Используем официальный образ Go в качестве базового
|
||||||
|
FROM golang:1.23
|
||||||
|
|
||||||
|
# Устанавливаем рабочую директорию
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
# Копируем файлы модуля
|
||||||
|
COPY . .
|
||||||
|
|
||||||
|
# Сборка модуля
|
||||||
|
RUN go build -o /bin/FileCreator
|
||||||
|
|
||||||
|
# Запуск модуля
|
||||||
|
CMD ["/bin/FileCreator"]
|
1
bazunov_andrew_lab_2/FileCreator/go.mod
Normal file
@ -0,0 +1 @@
|
|||||||
|
module FileCreator
|
92
bazunov_andrew_lab_2/FileCreator/main.go
Normal file
@ -0,0 +1,92 @@
|
|||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"crypto/md5"
|
||||||
|
"encoding/hex"
|
||||||
|
"fmt"
|
||||||
|
"math/rand"
|
||||||
|
"os"
|
||||||
|
"path/filepath"
|
||||||
|
)
|
||||||
|
|
||||||
|
const DIR = "/var/data"
|
||||||
|
|
||||||
|
func Exists(name string) (bool, error) {
|
||||||
|
_, err := os.Stat(name)
|
||||||
|
if os.IsNotExist(err) {
|
||||||
|
return false, nil
|
||||||
|
}
|
||||||
|
return err != nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
func CreateDirectory(dirs string) error {
|
||||||
|
if _, err := os.Stat(dirs); os.IsNotExist(err) {
|
||||||
|
err := os.MkdirAll(dirs, 0664)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func CreateFileOrOpenIfExist(name string) (*os.File, error) {
|
||||||
|
err := CreateDirectory(filepath.Dir(name))
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
exists, err := Exists(name)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
if exists {
|
||||||
|
return os.OpenFile(name, os.O_WRONLY|os.O_CREATE, 0664)
|
||||||
|
}
|
||||||
|
return os.Create(name)
|
||||||
|
}
|
||||||
|
|
||||||
|
func CreateFileAndWriteData(filename string) error {
|
||||||
|
file, err := CreateFileOrOpenIfExist(filename)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
lines := rand.Intn(1000) + 100
|
||||||
|
|
||||||
|
for i := 0; i < lines; i++ {
|
||||||
|
randomValueForLine := rand.Intn(1_000_000)
|
||||||
|
_, err = fmt.Fprintf(file, "%d\r\n", randomValueForLine)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
err = file.Close()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func GetMD5Hash(text string) string {
|
||||||
|
hash := md5.Sum([]byte(text))
|
||||||
|
return hex.EncodeToString(hash[:])
|
||||||
|
}
|
||||||
|
|
||||||
|
func main() {
|
||||||
|
for i := 0; i < 10; i++ {
|
||||||
|
filename := fmt.Sprintf("%s/%s.txt", DIR, GetMD5Hash(fmt.Sprintf("%d", i)))
|
||||||
|
err := CreateFileAndWriteData(filename)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
} else {
|
||||||
|
fmt.Printf("Created file %s\n", filename)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
err := CreateFileAndWriteData(DIR + "/data.txt")
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
} else {
|
||||||
|
fmt.Printf("Created file %s\n", DIR+"/data.txt")
|
||||||
|
}
|
||||||
|
}
|
14
bazunov_andrew_lab_2/FirstService/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
# Используем официальный образ Go в качестве базового
|
||||||
|
FROM golang:1.23
|
||||||
|
|
||||||
|
# Устанавливаем рабочую директорию
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
# Копируем файлы модуля
|
||||||
|
COPY . .
|
||||||
|
|
||||||
|
# Сборка модуля
|
||||||
|
RUN go build -o /bin/FirstService
|
||||||
|
|
||||||
|
# Запуск модуля
|
||||||
|
CMD ["/bin/FirstService"]
|
1
bazunov_andrew_lab_2/FirstService/go.mod
Normal file
@ -0,0 +1 @@
|
|||||||
|
module RVIP2
|
94
bazunov_andrew_lab_2/FirstService/main.go
Normal file
@ -0,0 +1,94 @@
|
|||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"fmt"
|
||||||
|
"os"
|
||||||
|
)
|
||||||
|
|
||||||
|
// Формирует файл /var/result/data.txt так,
|
||||||
|
// что каждая строка файла - количество символов в именах файлов из каталога /var/data.
|
||||||
|
|
||||||
|
const INPUT = "/var/data"
|
||||||
|
const OUTPUT = "/data/result"
|
||||||
|
|
||||||
|
func GetListFilesInDirectory(directory string) ([]string, error) {
|
||||||
|
f, err := os.Open(directory)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
files, err := f.Readdir(0)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
var fileNames []string
|
||||||
|
for _, file := range files {
|
||||||
|
fileName := file.Name()
|
||||||
|
fileNames = append(fileNames, fileName)
|
||||||
|
}
|
||||||
|
return fileNames, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func Exists(name string) (bool, error) {
|
||||||
|
_, err := os.Stat(name)
|
||||||
|
if os.IsNotExist(err) {
|
||||||
|
return false, nil
|
||||||
|
}
|
||||||
|
return err != nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
func CreateFileOrOpenIfExist(name string) (*os.File, error) {
|
||||||
|
exists, err := Exists(name)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
if exists {
|
||||||
|
return os.OpenFile(name, os.O_WRONLY|os.O_CREATE, 0664)
|
||||||
|
}
|
||||||
|
return os.Create(name)
|
||||||
|
}
|
||||||
|
|
||||||
|
func CreateFileAndWriteData(filename string, lines []string) error {
|
||||||
|
file, err := CreateFileOrOpenIfExist(filename)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, line := range lines {
|
||||||
|
_, err = fmt.Fprintf(file, line)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
err = file.Close()
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func main() {
|
||||||
|
filenames, err := GetListFilesInDirectory(INPUT)
|
||||||
|
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
return
|
||||||
|
}
|
||||||
|
|
||||||
|
var lenghtOfFilenames []string
|
||||||
|
for _, filename := range filenames {
|
||||||
|
fmt.Println(filename)
|
||||||
|
lenghtOfFilenames = append(lenghtOfFilenames, fmt.Sprintf("%d", len(filename)))
|
||||||
|
}
|
||||||
|
|
||||||
|
err = CreateFileAndWriteData(OUTPUT+"/data.txt", filenames)
|
||||||
|
if err != nil {
|
||||||
|
return
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Println("First Service is end.")
|
||||||
|
}
|
30
bazunov_andrew_lab_2/README.md
Normal file
@ -0,0 +1,30 @@
|
|||||||
|
# Распределенные вычисления и приложения Л2
|
||||||
|
## _Автор Базунов Андрей Игревич ПИбд-42_
|
||||||
|
|
||||||
|
Сервисы ( _порядок исполнения сервисов соблюден_ ):
|
||||||
|
- 1.FileCreator - (_Создание тестовых данных_)
|
||||||
|
- 2.FirstService - (_Выполнение 1.4 варианта задания_)
|
||||||
|
- 3.SecondService - (_Выполнение 2.2 варианта задания_)
|
||||||
|
|
||||||
|
В качестве основного языка был выбран GoLang. Для каждого сервиса был создан DOCKERFILE где были прописаны условия и действия для сборки каждого из модулей
|
||||||
|
|
||||||
|
# Docker
|
||||||
|
|
||||||
|
>Перед исполнением вполняем установку docker и проверяем версию
|
||||||
|
|
||||||
|
```sh
|
||||||
|
docker-compose --version
|
||||||
|
```
|
||||||
|
|
||||||
|
>Далее производим настройку файла docker-compose.yaml и запускаем контейнер с сборкой образов
|
||||||
|
|
||||||
|
```sh
|
||||||
|
docker-compose up -d --build
|
||||||
|
```
|
||||||
|
|
||||||
|
>Для завершения работы контейнера используем команду
|
||||||
|
```sh
|
||||||
|
docker-compose down
|
||||||
|
```
|
||||||
|
|
||||||
|
[Демонстрация работы](https://vk.com/video236673313_456239575)
|
14
bazunov_andrew_lab_2/SecondService/Dockerfile
Normal file
@ -0,0 +1,14 @@
|
|||||||
|
# Используем официальный образ Go в качестве базового
|
||||||
|
FROM golang:1.23
|
||||||
|
|
||||||
|
# Устанавливаем рабочую директорию
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
# Копируем файлы модуля
|
||||||
|
COPY . .
|
||||||
|
|
||||||
|
# Сборка модуля
|
||||||
|
RUN go build -o /bin/SecondService
|
||||||
|
|
||||||
|
# Запуск модуля
|
||||||
|
CMD ["/bin/SecondService"]
|
1
bazunov_andrew_lab_2/SecondService/go.mod
Normal file
@ -0,0 +1 @@
|
|||||||
|
module SecondService
|
79
bazunov_andrew_lab_2/SecondService/main.go
Normal file
@ -0,0 +1,79 @@
|
|||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"bufio"
|
||||||
|
"fmt"
|
||||||
|
"os"
|
||||||
|
)
|
||||||
|
|
||||||
|
//Ищет наименьшее число из файла /var/data/data.txt и сохраняет его третью степень в /var/result/result.txt.
|
||||||
|
|
||||||
|
const INPUT = "/var/data/data.txt"
|
||||||
|
const OUTPUT = "/var/result/result.txt"
|
||||||
|
|
||||||
|
func ReadlinesFromFile(filename string) ([]string, error) {
|
||||||
|
file, err := os.Open(filename)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
var output []string
|
||||||
|
scanner := bufio.NewScanner(file)
|
||||||
|
for scanner.Scan() {
|
||||||
|
output = append(output, scanner.Text())
|
||||||
|
}
|
||||||
|
|
||||||
|
err = file.Close()
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
|
||||||
|
return output, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func WriteIntToFile(filename string, i int) error {
|
||||||
|
file, err := os.Create(filename)
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
defer func(file *os.File) {
|
||||||
|
err := file.Close()
|
||||||
|
if err != nil {
|
||||||
|
|
||||||
|
}
|
||||||
|
}(file)
|
||||||
|
|
||||||
|
_, err = file.WriteString(fmt.Sprintf("%d\n", i))
|
||||||
|
if err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func main() {
|
||||||
|
lines, err := ReadlinesFromFile(INPUT)
|
||||||
|
if err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
minValue := 0
|
||||||
|
|
||||||
|
for _, line := range lines {
|
||||||
|
if intValue, err := fmt.Sscanf(line, "%d", &minValue); err != nil {
|
||||||
|
fmt.Println(err)
|
||||||
|
} else {
|
||||||
|
if minValue >= intValue {
|
||||||
|
minValue = intValue
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
if err = WriteIntToFile(OUTPUT, minValue); err != nil {
|
||||||
|
return
|
||||||
|
} else {
|
||||||
|
fmt.Printf("Write %d to %s\n", minValue, OUTPUT)
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Println("Second Service is end.")
|
||||||
|
}
|
27
bazunov_andrew_lab_2/docker-compose.yaml
Normal file
@ -0,0 +1,27 @@
|
|||||||
|
services:
|
||||||
|
file_generate:
|
||||||
|
build:
|
||||||
|
context: ./FileCreator
|
||||||
|
dockerfile: Dockerfile
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data # Монтирование локальной папки data в /var/data в контейнере
|
||||||
|
|
||||||
|
first_service:
|
||||||
|
build:
|
||||||
|
context: ./FirstService
|
||||||
|
dockerfile: Dockerfile
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data
|
||||||
|
- ./data:/var/result
|
||||||
|
depends_on:
|
||||||
|
- file_generate
|
||||||
|
|
||||||
|
second_service:
|
||||||
|
build:
|
||||||
|
context: ./SecondService
|
||||||
|
dockerfile: Dockerfile
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data
|
||||||
|
- ./data:/var/result
|
||||||
|
depends_on:
|
||||||
|
- first_service
|
35
bogdanov_dmitry_lab_1/README.md
Normal file
@ -0,0 +1,35 @@
|
|||||||
|
# Лабораторная работа №1
|
||||||
|
|
||||||
|
## Богданов Дмитрий ПИбд-42
|
||||||
|
|
||||||
|
### Для выполнения были развернуты следующие сервисы:
|
||||||
|
|
||||||
|
* PostgreSQL - база данных
|
||||||
|
* Mediawiki - движок вики
|
||||||
|
* Gitea - движок гита
|
||||||
|
|
||||||
|
### С использованием следующих технологий:
|
||||||
|
|
||||||
|
* git
|
||||||
|
* docker
|
||||||
|
* docker-compose
|
||||||
|
|
||||||
|
|
||||||
|
### Запуск лабораторной:
|
||||||
|
Необходимо перейти в папку с файлом docker-compose.yaml и ввести следующую команду:
|
||||||
|
```
|
||||||
|
docker-compose up -d
|
||||||
|
```
|
||||||
|
|
||||||
|
## Результат запуска:
|
||||||
|
```
|
||||||
|
[+] Running 4/4
|
||||||
|
✔ Network bogdanov_dmitry_lab_1_default Created 0.0s
|
||||||
|
✔ Container bogdanov_dmitry_lab_1-mediawiki-1 Started 0.7s
|
||||||
|
✔ Container bogdanov_dmitry_lab_1-git-1 Started 0.8s
|
||||||
|
✔ Container bogdanov_dmitry_lab_1-db-1 Started 0.7s
|
||||||
|
```
|
||||||
|
|
||||||
|
## Видео с результатом запуска:
|
||||||
|
|
||||||
|
Видео можно посмотреть по данной [ссылке](https://drive.google.com/file/d/1TES58HIeCnnKbtwWgED2oig4N7plBmol/view).
|
40
bogdanov_dmitry_lab_1/docker-compose.yaml
Normal file
@ -0,0 +1,40 @@
|
|||||||
|
services:
|
||||||
|
# PostgreSQL
|
||||||
|
db:
|
||||||
|
# Образ контейнера
|
||||||
|
image: postgres
|
||||||
|
# Перезапуск при падении
|
||||||
|
restart: always
|
||||||
|
# Порт для подключения
|
||||||
|
ports:
|
||||||
|
- 5432:5432
|
||||||
|
# Каталог с данными. Каталог компьютера:каталог контейнера
|
||||||
|
volumes:
|
||||||
|
- ./volumes/postgres:/var/lib/postgresql/data
|
||||||
|
# Переменные среды для определения хотя бы одного пользователя при запуске
|
||||||
|
environment:
|
||||||
|
- POSTGRES_USER=admin
|
||||||
|
- POSTGRES_PASSWORD=admin
|
||||||
|
# Mediawiki
|
||||||
|
mediawiki:
|
||||||
|
# Образ
|
||||||
|
image: mediawiki
|
||||||
|
# Перезапуск при падении
|
||||||
|
restart: always
|
||||||
|
# Порт для подключения
|
||||||
|
ports:
|
||||||
|
- 8080:80
|
||||||
|
# Каталоги
|
||||||
|
volumes:
|
||||||
|
- ./volumes/mediawiki:/var/www/html/images
|
||||||
|
# Gitea
|
||||||
|
git:
|
||||||
|
image: gitea/gitea:latest
|
||||||
|
restart: always
|
||||||
|
ports:
|
||||||
|
- "3000:3000"
|
||||||
|
- "222:22"
|
||||||
|
volumes:
|
||||||
|
- ./volumes/gitea:/data
|
||||||
|
- ./volumes/timezone:/etc/timezone:ro
|
||||||
|
- ./volumes/localtime:/etc/localtime:ro
|
2
bogdanov_dmitry_lab_2/.gitignore
vendored
Normal file
@ -0,0 +1,2 @@
|
|||||||
|
data/
|
||||||
|
result/
|
41
bogdanov_dmitry_lab_2/README.md
Normal file
@ -0,0 +1,41 @@
|
|||||||
|
# Лабораторная работа №2
|
||||||
|
|
||||||
|
## Богданов Дмитрий ПИбд-42
|
||||||
|
|
||||||
|
### Для выполнения была проделана следующая работа:
|
||||||
|
Были написаны и развернуты 3 сервиса: генератор файлов, 2 приложения для работы с этими файлами по вариантам 2 и 1 соответственно:
|
||||||
|
|
||||||
|
Вариант 2 (для первого приложения):
|
||||||
|
|
||||||
|
```Формирует файл /var/result/data.txt из первых строк всех файлов каталога /var/data.```
|
||||||
|
|
||||||
|
Вариант 1 (для второго приложения):
|
||||||
|
|
||||||
|
```Ищет набольшее число из файла /var/data/data.txt и сохраняет его вторую степень в /var/result/result.txt.```
|
||||||
|
|
||||||
|
Приложения работают совместно, используя общий монтированный том для записи и получения информации:
|
||||||
|
```
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data
|
||||||
|
```
|
||||||
|
```
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data
|
||||||
|
- ./result:/var/result
|
||||||
|
```
|
||||||
|
```
|
||||||
|
volumes:
|
||||||
|
- ./result:/var/result
|
||||||
|
```
|
||||||
|
|
||||||
|
|
||||||
|
### Запуск лабораторной:
|
||||||
|
Необходимо перейти в папку с файлом docker-compose.yaml и ввести следующую команду:
|
||||||
|
```
|
||||||
|
docker compose up --build
|
||||||
|
```
|
||||||
|
Сервис генератора сгенерирует папки data и result, где будут сгенерированы входные файлы и файл-результат их обработки соответственно.
|
||||||
|
|
||||||
|
## Видео с результатом запуска:
|
||||||
|
|
||||||
|
Видео-демонстрацию работы можно посмотреть по данной [ссылке](https://drive.google.com/file/d/1CmVZjJuMStqNFFKbsMLjw4ihTiMnR7it/view).
|
7
bogdanov_dmitry_lab_2/app-1/Dockerfile
Normal file
@ -0,0 +1,7 @@
|
|||||||
|
FROM python:latest
|
||||||
|
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
COPY app.py /app/
|
||||||
|
|
||||||
|
CMD ["python", "app.py"]
|
30
bogdanov_dmitry_lab_2/app-1/app.py
Normal file
@ -0,0 +1,30 @@
|
|||||||
|
import os
|
||||||
|
|
||||||
|
# Вариант 2 - Формирует файл /var/result/data.txt из первых строк всех файлов каталога /var/data.
|
||||||
|
def solve(dir_files, dir_result, filename_result):
|
||||||
|
# Получаем список файлов в директории
|
||||||
|
filenames = os.listdir(dir_files)
|
||||||
|
result = ''
|
||||||
|
# Проходим через каждый файл
|
||||||
|
for filename in filenames:
|
||||||
|
filepath = os.path.join(dir_files, filename)
|
||||||
|
file = open(filepath, "r")
|
||||||
|
# Читаем первую строку, добавляем к результату
|
||||||
|
result += f"{file.readline()}"
|
||||||
|
file.close()
|
||||||
|
|
||||||
|
# Если директории для сохранения результата нет - создаём
|
||||||
|
if not os.path.exists(dir_result):
|
||||||
|
os.makedirs(dir_result)
|
||||||
|
# Если директория с результатом не пустая - завершаем работу
|
||||||
|
if os.listdir(dir_result):
|
||||||
|
return
|
||||||
|
# Пишем результат в файл
|
||||||
|
filepath_result = os.path.join(dir_result, filename_result)
|
||||||
|
result_file = open(filepath_result, "w")
|
||||||
|
result_file.write(result)
|
||||||
|
print(f"Результат записан в файл {filepath_result}")
|
||||||
|
result_file.close()
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
solve('/var/data', '/var/result', 'data.txt')
|
7
bogdanov_dmitry_lab_2/app-2/Dockerfile
Normal file
@ -0,0 +1,7 @@
|
|||||||
|
FROM python:latest
|
||||||
|
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
COPY app.py /app/
|
||||||
|
|
||||||
|
CMD ["python", "app.py"]
|
21
bogdanov_dmitry_lab_2/app-2/app.py
Normal file
@ -0,0 +1,21 @@
|
|||||||
|
import os
|
||||||
|
|
||||||
|
# Вариант 1 - Ищет набольшее число из файла /var/data/data.txt и сохраняет его вторую степень в /var/result/result.txt.
|
||||||
|
def solve(dir_input, dir_result, filename_result):
|
||||||
|
file_input = open(os.path.join(dir_input, 'data.txt'))
|
||||||
|
# Считываем все числа из файла
|
||||||
|
inputs = [int(line) for line in file_input.readlines()]
|
||||||
|
if inputs:
|
||||||
|
# Максимальное число
|
||||||
|
max_num = max(inputs)
|
||||||
|
print(f"Наибольшее число: {max_num}")
|
||||||
|
# Возводим во 2 степень
|
||||||
|
result = max(inputs) ** 2
|
||||||
|
file_result = open(os.path.join(dir_result, filename_result), "w")
|
||||||
|
# Пишем результат в файл
|
||||||
|
file_result.write(str(result))
|
||||||
|
print(f"Получен результат {result}")
|
||||||
|
file_result.close()
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
solve("/var/result", '/var/result', 'result.txt')
|
7
bogdanov_dmitry_lab_2/app-generator/Dockerfile
Normal file
@ -0,0 +1,7 @@
|
|||||||
|
FROM python:latest
|
||||||
|
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
COPY generator.py /app/
|
||||||
|
|
||||||
|
CMD ["python", "generate_files.py"]
|
30
bogdanov_dmitry_lab_2/app-generator/generator.py
Normal file
@ -0,0 +1,30 @@
|
|||||||
|
import os
|
||||||
|
import random as rnd
|
||||||
|
import string
|
||||||
|
|
||||||
|
# Генератор названий файлов
|
||||||
|
def generate_filename(l):
|
||||||
|
return ''.join(rnd.choices(string.ascii_lowercase + string.digits, k=l)) + '.txt'
|
||||||
|
|
||||||
|
def generate_files(dir, num_files, num_lines):
|
||||||
|
# Если директории для сохранения файлов нет - создаём
|
||||||
|
if not os.path.exists(dir):
|
||||||
|
os.makedirs(dir)
|
||||||
|
|
||||||
|
# Если директория для сохранения файлов не пустая - завершаем работу
|
||||||
|
if os.listdir(dir):
|
||||||
|
return
|
||||||
|
|
||||||
|
# Создание файлов
|
||||||
|
for i in range(num_files):
|
||||||
|
filename = generate_filename(20)
|
||||||
|
filepath = os.path.join(dir, filename)
|
||||||
|
|
||||||
|
file = open(filepath, "w")
|
||||||
|
# Запись строк в файл
|
||||||
|
for j in range(num_lines):
|
||||||
|
file.write(f"{rnd.randint(-1000, 1000)}\n")
|
||||||
|
file.close()
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
generate_files('/var/data', 50, 50)
|
27
bogdanov_dmitry_lab_2/docker-compose.yaml
Normal file
@ -0,0 +1,27 @@
|
|||||||
|
services:
|
||||||
|
# Генератор файлов
|
||||||
|
generator:
|
||||||
|
build:
|
||||||
|
context: ./app-generator # Путь к контексту (докер файл + скрипт)
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data # Папка контейнера : папка локальная
|
||||||
|
entrypoint: python generator.py # Точка входа
|
||||||
|
|
||||||
|
# Первое приложение
|
||||||
|
app1:
|
||||||
|
build:
|
||||||
|
context: ./app-1 # Путь к контексту
|
||||||
|
volumes:
|
||||||
|
- ./data:/var/data # Монтирование папок
|
||||||
|
- ./result:/var/result
|
||||||
|
depends_on:
|
||||||
|
- generator # Указываем, что запускается только после успешной работы сервиса generator
|
||||||
|
|
||||||
|
# Второе приложение, настройка аналогична сервисам выше
|
||||||
|
app2:
|
||||||
|
build:
|
||||||
|
context: ./app-2
|
||||||
|
volumes:
|
||||||
|
- ./result:/var/result
|
||||||
|
depends_on:
|
||||||
|
- app1
|
2
bogdanov_dmitry_lab_3/.gitignore
vendored
Normal file
@ -0,0 +1,2 @@
|
|||||||
|
/.idea
|
||||||
|
/.venv
|
22
bogdanov_dmitry_lab_3/README.md
Normal file
@ -0,0 +1,22 @@
|
|||||||
|
# Лабораторная работа №3
|
||||||
|
|
||||||
|
## Богданов Дмитрий ПИбд-42
|
||||||
|
|
||||||
|
### Для выполнения были выбраны следующие сущности:
|
||||||
|
|
||||||
|
* Message - содержит uuid (генерируется), text, datetime_sent, user_id
|
||||||
|
* User - содержит uuid (генерируется), name, surname
|
||||||
|
|
||||||
|
Одному пользователю может быть присвоено несколько сообщений.
|
||||||
|
|
||||||
|
Соответственно были развернуты 2 сервиса для управления этими сущностями.
|
||||||
|
|
||||||
|
### Запуск лабораторной:
|
||||||
|
Необходимо перейти в папку с файлом compose.yaml и ввести следующую команду:
|
||||||
|
```
|
||||||
|
docker-compose up --build -d
|
||||||
|
```
|
||||||
|
|
||||||
|
## Видео с результатом запуска и тестами...
|
||||||
|
|
||||||
|
...можно посмотреть по данной [ссылке](https://drive.google.com/file/d/1cJz0z4KduSz1oltmAuieUW7GxxVLNPNo/view).
|
27
bogdanov_dmitry_lab_3/compose.yaml
Normal file
@ -0,0 +1,27 @@
|
|||||||
|
services:
|
||||||
|
|
||||||
|
user_service:
|
||||||
|
container_name: userService
|
||||||
|
build:
|
||||||
|
context: .
|
||||||
|
dockerfile: ./userService/Dockerfile
|
||||||
|
expose:
|
||||||
|
- 20001
|
||||||
|
|
||||||
|
message_service:
|
||||||
|
container_name: messageService
|
||||||
|
build:
|
||||||
|
context: .
|
||||||
|
dockerfile: ./messageService/Dockerfile
|
||||||
|
expose:
|
||||||
|
- 20002
|
||||||
|
|
||||||
|
nginx:
|
||||||
|
image: nginx:latest
|
||||||
|
ports:
|
||||||
|
- "80:80"
|
||||||
|
volumes:
|
||||||
|
- ./nginx.conf:/etc/nginx/nginx.conf
|
||||||
|
depends_on:
|
||||||
|
- user_service
|
||||||
|
- message_service
|
11
bogdanov_dmitry_lab_3/messageService/Dockerfile
Normal file
@ -0,0 +1,11 @@
|
|||||||
|
FROM python:latest
|
||||||
|
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
COPY requirements.txt .
|
||||||
|
|
||||||
|
RUN pip install --no-cache-dir -r requirements.txt
|
||||||
|
|
||||||
|
COPY messageService/messageService.py .
|
||||||
|
|
||||||
|
CMD ["python", "messageService.py"]
|
138
bogdanov_dmitry_lab_3/messageService/messageService.py
Normal file
@ -0,0 +1,138 @@
|
|||||||
|
from flask import Flask, request, jsonify
|
||||||
|
from uuid import uuid4
|
||||||
|
import uuid
|
||||||
|
import datetime
|
||||||
|
import requests
|
||||||
|
|
||||||
|
class Message:
|
||||||
|
def __init__(self, text: str, datetime_sent: datetime, uuid_: uuid, user_id: uuid):
|
||||||
|
if uuid_ is None:
|
||||||
|
self.uuid_ = uuid4()
|
||||||
|
else:
|
||||||
|
self.uuid_ = uuid.UUID(uuid_)
|
||||||
|
self.text = text
|
||||||
|
self.datetime_sent = datetime_sent
|
||||||
|
self.user_id = uuid.UUID(user_id)
|
||||||
|
|
||||||
|
def to_dict(self):
|
||||||
|
return {
|
||||||
|
'text': self.text,
|
||||||
|
'datetime_sent': self.datetime_sent,
|
||||||
|
'user_id': self.user_id,
|
||||||
|
'uuid': self.uuid_
|
||||||
|
}
|
||||||
|
|
||||||
|
def to_dict_for_users(self):
|
||||||
|
return {
|
||||||
|
'title': self.text,
|
||||||
|
'datetime_sent': self.datetime_sent,
|
||||||
|
'uuid': self.uuid_
|
||||||
|
}
|
||||||
|
|
||||||
|
def to_dict_with_info(self, user: dict):
|
||||||
|
return {
|
||||||
|
'title': self.text,
|
||||||
|
'datetime_sent': self.datetime_sent,
|
||||||
|
'user_id': self.user_id,
|
||||||
|
'user_info': user,
|
||||||
|
'uuid': self.uuid_
|
||||||
|
}
|
||||||
|
|
||||||
|
messages = [
|
||||||
|
Message(text='Hi!', datetime_sent=datetime.datetime.now(), uuid_='4add0525-1857-477d-ad35-56790d400b72', user_id='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
||||||
|
Message(text='Hello this is a message', datetime_sent=datetime.datetime.now(), uuid_='dd69758d-89e8-49b5-86bf-54ae2adb64e8', user_id='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
||||||
|
Message(text='Test', datetime_sent=datetime.datetime.now(), uuid_='92389e8d-4365-457e-b37e-78abbc07f194', user_id='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
||||||
|
Message(text='Anyone here?', datetime_sent=datetime.datetime.now(), uuid_='f3a1c526-aca2-47e2-afd3-a1c2eac92458', user_id='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
||||||
|
Message(text='Mambo', datetime_sent=datetime.datetime.now(), uuid_='00abbdb5-e480-4842-bc32-f916894757eb', user_id='46672ea5-3d7b-4137-a0ac-efd898ca4db6')
|
||||||
|
]
|
||||||
|
|
||||||
|
def list_jsonify():
|
||||||
|
return jsonify([message.to_dict() for message in messages])
|
||||||
|
|
||||||
|
|
||||||
|
app = Flask(__name__)
|
||||||
|
users_url = 'http://userService:20001/'
|
||||||
|
|
||||||
|
@app.route('/', methods=['GET'])
|
||||||
|
def get_all():
|
||||||
|
return list_jsonify(), 200
|
||||||
|
|
||||||
|
@app.route('/info', methods=['GET'])
|
||||||
|
def get_all_full():
|
||||||
|
users: list[dict] = requests.get(users_url).json()
|
||||||
|
response = []
|
||||||
|
for message in messages:
|
||||||
|
for user in users:
|
||||||
|
if message.user_id == uuid.UUID(user.get('uuid')):
|
||||||
|
response.append(message.to_dict_with_info(user))
|
||||||
|
|
||||||
|
return response, 200
|
||||||
|
|
||||||
|
@app.route('/by-user/<uuid:user_uuid>', methods=['GET'])
|
||||||
|
def get_by_user_id(user_uuid):
|
||||||
|
return [message.to_dict_for_users() for message in messages if message.user_id == user_uuid], 200
|
||||||
|
|
||||||
|
@app.route('/info/<uuid:uuid_>', methods=['GET'])
|
||||||
|
def get_one_full(uuid_):
|
||||||
|
for message in messages:
|
||||||
|
if message.uuid_ == uuid_:
|
||||||
|
response = requests.get(users_url + str(message.user_id))
|
||||||
|
return message.to_dict_with_info(response.json()), 200
|
||||||
|
|
||||||
|
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||||
|
|
||||||
|
@app.route('/', methods=['POST'])
|
||||||
|
def create():
|
||||||
|
data = request.json
|
||||||
|
text = data.get('text', None)
|
||||||
|
datetime_sent = datetime.datetime.now()
|
||||||
|
user_id = data.get('user_id', None)
|
||||||
|
checking = requests.get(users_url + f'/check/{user_id}')
|
||||||
|
print(checking)
|
||||||
|
if checking.status_code == 200:
|
||||||
|
new_message = Message(text, datetime_sent, None, user_id)
|
||||||
|
messages.append(new_message)
|
||||||
|
return get_one(new_message.uuid_)
|
||||||
|
if checking.status_code == 404:
|
||||||
|
return f'Пользователь с uuid {user_id} не существует', 404
|
||||||
|
|
||||||
|
return 'Неизвестная ошибка', 500
|
||||||
|
|
||||||
|
@app.route('/<uuid:uuid_>', methods=['PUT'])
|
||||||
|
def update_by_id(uuid_):
|
||||||
|
data = request.json
|
||||||
|
new_text = data.get('text', None)
|
||||||
|
|
||||||
|
for message in messages:
|
||||||
|
print(message.uuid_)
|
||||||
|
|
||||||
|
if message.uuid_ == uuid_:
|
||||||
|
if new_text is not None:
|
||||||
|
message.text = new_text
|
||||||
|
return get_one(message.uuid_)
|
||||||
|
|
||||||
|
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||||
|
|
||||||
|
|
||||||
|
@app.route('/<uuid:uuid_>', methods=['DELETE'])
|
||||||
|
def delete(uuid_):
|
||||||
|
for message in messages:
|
||||||
|
if message.uuid_ == uuid_:
|
||||||
|
messages.remove(message)
|
||||||
|
return 'Сообщение успешно удалено', 200
|
||||||
|
|
||||||
|
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
@app.route('/<uuid:uuid_>', methods=['GET'])
|
||||||
|
def get_one(uuid_):
|
||||||
|
for message in messages:
|
||||||
|
if message.uuid_ == uuid_:
|
||||||
|
return message.to_dict(), 200
|
||||||
|
|
||||||
|
return f'Сообщение с uuid {uuid_} не найдено', 404
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == '__main__':
|
||||||
|
app.run(host='0.0.0.0', port=20002, debug=True)
|
25
bogdanov_dmitry_lab_3/nginx.conf
Normal file
@ -0,0 +1,25 @@
|
|||||||
|
events { worker_connections 1024; }
|
||||||
|
|
||||||
|
http {
|
||||||
|
server {
|
||||||
|
listen 80;
|
||||||
|
listen [::]:80;
|
||||||
|
server_name localhost;
|
||||||
|
|
||||||
|
location /userService/ {
|
||||||
|
proxy_pass http://userService:20001/;
|
||||||
|
proxy_set_header Host $host;
|
||||||
|
proxy_set_header X-Real-IP $remote_addr;
|
||||||
|
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
||||||
|
proxy_set_header X-Forwarded-Proto $scheme;
|
||||||
|
}
|
||||||
|
|
||||||
|
location /messageService/ {
|
||||||
|
proxy_pass http://messageService:20002/;
|
||||||
|
proxy_set_header Host $host;
|
||||||
|
proxy_set_header X-Real-IP $remote_addr;
|
||||||
|
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
|
||||||
|
proxy_set_header X-Forwarded-Proto $scheme;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
2
bogdanov_dmitry_lab_3/requirements.txt
Normal file
@ -0,0 +1,2 @@
|
|||||||
|
Flask==3.0.3
|
||||||
|
requests==2.32.3
|
11
bogdanov_dmitry_lab_3/userService/Dockerfile
Normal file
@ -0,0 +1,11 @@
|
|||||||
|
FROM python:latest
|
||||||
|
|
||||||
|
WORKDIR /app
|
||||||
|
|
||||||
|
COPY requirements.txt .
|
||||||
|
|
||||||
|
RUN pip install --no-cache-dir -r requirements.txt
|
||||||
|
|
||||||
|
COPY userService/userService.py .
|
||||||
|
|
||||||
|
CMD ["python", "userService.py"]
|
115
bogdanov_dmitry_lab_3/userService/userService.py
Normal file
@ -0,0 +1,115 @@
|
|||||||
|
from flask import Flask, jsonify, request
|
||||||
|
from uuid import uuid4
|
||||||
|
import uuid
|
||||||
|
import requests
|
||||||
|
|
||||||
|
|
||||||
|
class User:
|
||||||
|
def __init__(self, name, surname, uuid_: uuid):
|
||||||
|
if uuid_ is None:
|
||||||
|
self.uuid_: uuid = uuid4()
|
||||||
|
else:
|
||||||
|
self.uuid_: uuid = uuid.UUID(uuid_)
|
||||||
|
self.name: str = name
|
||||||
|
self.surname: str = surname
|
||||||
|
|
||||||
|
def to_dict(self):
|
||||||
|
return {
|
||||||
|
"uuid": self.uuid_,
|
||||||
|
"name": self.name,
|
||||||
|
"surname": self.surname
|
||||||
|
}
|
||||||
|
|
||||||
|
def to_dict_with_messages(self, messages: list):
|
||||||
|
return {
|
||||||
|
"uuid": self.uuid_,
|
||||||
|
"name": self.name,
|
||||||
|
"surname": self.surname,
|
||||||
|
"messages": messages
|
||||||
|
}
|
||||||
|
|
||||||
|
|
||||||
|
app = Flask(__name__)
|
||||||
|
|
||||||
|
users: list[User] = [
|
||||||
|
User(name='Dr.', surname='Kino', uuid_='94b171ea-39f6-4a67-9c67-061743f67cfd'),
|
||||||
|
User(name='Caspian', surname='Holstrom', uuid_='724a3192-70dd-4909-9b0f-c9060a4ab1bd'),
|
||||||
|
User(name='Admin', surname='Admin', uuid_='46672ea5-3d7b-4137-a0ac-efd898ca4db6')
|
||||||
|
]
|
||||||
|
|
||||||
|
messages_url = 'http://messageService:20002/'
|
||||||
|
|
||||||
|
|
||||||
|
def list_jsonify():
|
||||||
|
return jsonify([user.to_dict() for user in users])
|
||||||
|
|
||||||
|
@app.route('/', methods=['GET'])
|
||||||
|
def get_all():
|
||||||
|
return list_jsonify(), 200
|
||||||
|
|
||||||
|
@app.route('/<uuid:uuid_>', methods=['GET'])
|
||||||
|
def get_one(uuid_):
|
||||||
|
for user in users:
|
||||||
|
if user.uuid_ == uuid_:
|
||||||
|
return user.to_dict(), 200
|
||||||
|
|
||||||
|
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||||
|
|
||||||
|
@app.route('/info/<uuid:uuid_>', methods=['GET'])
|
||||||
|
def get_one_with_messages(uuid_):
|
||||||
|
for user in users:
|
||||||
|
if user.uuid_ == uuid_:
|
||||||
|
response = requests.get(messages_url + f'by-user/{uuid_}')
|
||||||
|
print(response.json())
|
||||||
|
return user.to_dict_with_messages(response.json()), 200
|
||||||
|
|
||||||
|
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||||
|
|
||||||
|
@app.route('/check/<uuid:uuid_>', methods=['GET'])
|
||||||
|
def check_exist(uuid_):
|
||||||
|
for user in users:
|
||||||
|
if user.uuid_ == uuid_:
|
||||||
|
return '', 200
|
||||||
|
return '', 404
|
||||||
|
|
||||||
|
@app.route('/', methods=['POST'])
|
||||||
|
def create():
|
||||||
|
data = request.json
|
||||||
|
name = data.get('name', None)
|
||||||
|
surname = data.get('surname', None)
|
||||||
|
if name is None or surname is None:
|
||||||
|
return 'Недостаточно информации для создания пользователя', 404
|
||||||
|
|
||||||
|
new_user = User(name, surname, None)
|
||||||
|
users.append(new_user)
|
||||||
|
return get_one(new_user.uuid_)
|
||||||
|
|
||||||
|
@app.route('/<uuid:uuid_>', methods=['PUT'])
|
||||||
|
def update_by_id(uuid_):
|
||||||
|
data = request.json
|
||||||
|
new_name = data.get('name', None)
|
||||||
|
new_surname = data.get('surname', None)
|
||||||
|
|
||||||
|
for user in users:
|
||||||
|
if user.uuid_ == uuid_:
|
||||||
|
if new_name is not None:
|
||||||
|
user.name = new_name
|
||||||
|
if new_surname is not None:
|
||||||
|
user.surname = new_surname
|
||||||
|
return get_one(user.uuid_)
|
||||||
|
|
||||||
|
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||||
|
|
||||||
|
|
||||||
|
@app.route('/<uuid:uuid_>', methods=['DELETE'])
|
||||||
|
def delete(uuid_):
|
||||||
|
for user in users:
|
||||||
|
if user.uuid_ == uuid_:
|
||||||
|
users.remove(user)
|
||||||
|
return 'Пользователь удален', 200
|
||||||
|
|
||||||
|
return f'Пользователь с uuid {uuid_} не найден', 404
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == '__main__':
|
||||||
|
app.run(host='0.0.0.0', port=20001, debug=True)
|
34
bogdanov_dmitry_lab_4/README.md
Normal file
@ -0,0 +1,34 @@
|
|||||||
|
# Богданов Дмитрий ПИбд-42
|
||||||
|
# Лабораторная работа №4
|
||||||
|
|
||||||
|
|
||||||
|
## Предметная область:
|
||||||
|
Автоматизация работы теплицы
|
||||||
|
|
||||||
|
## Результаты выполнения туториалов:
|
||||||
|
|
||||||
|
- Первый туториал:
|
||||||
|
![изображение 1](./images/tut1.png)
|
||||||
|
|
||||||
|
- Второй туториал:
|
||||||
|
![изображение 2](./images/tut2.png)
|
||||||
|
|
||||||
|
- Третий туториал:
|
||||||
|
![изображение 3](./images/tut3.png)
|
||||||
|
|
||||||
|
|
||||||
|
## Данные из RabbitMQ:
|
||||||
|
|
||||||
|
![изображение 1](./images/rmq1.png)
|
||||||
|
![изображение 2](./images/rmq2.png)
|
||||||
|
![изображение 3](./images/rmq3.png)
|
||||||
|
![изображение 3](./images/rmq4.png)
|
||||||
|
|
||||||
|
### Вывод:
|
||||||
|
Из-за моментальной обработки сообщений в Consumer2, его очередь никогда не заполняется.
|
||||||
|
Consumer1 же тратит на обработку 2 секунды, из-за чего соответствующая очередь существенно заполняется при одном
|
||||||
|
запущенном экземпляре.
|
||||||
|
При нескольких запущенных экземплярах Consumer1 очередь заполняется существенно медленнее, и перестаёт заполняться совсем при определенном кол-ве запущенных экземпляров.
|
||||||
|
|
||||||
|
|
||||||
|
## [Видео](https://drive.google.com/file/d/1KWHHYWiK8OX48OfhDnEKDtMz-Umfs0uj/view?usp=sharing)
|
27
bogdanov_dmitry_lab_4/Sample Program/consumer1.py
Normal file
@ -0,0 +1,27 @@
|
|||||||
|
import pika
|
||||||
|
import time
|
||||||
|
|
||||||
|
|
||||||
|
def callback(ch, method, properties, body):
|
||||||
|
print(f'Receiver 1: получено сообщение. {body.decode()}')
|
||||||
|
|
||||||
|
time.sleep(3)
|
||||||
|
|
||||||
|
print('Receiver 1 закончил обработку')
|
||||||
|
|
||||||
|
|
||||||
|
def consume_events_1():
|
||||||
|
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.queue_declare(queue='receiver1_queue')
|
||||||
|
channel.queue_bind(exchange='greenhouse_events', queue='receiver1_queue')
|
||||||
|
|
||||||
|
channel.basic_consume(queue='receiver1_queue', on_message_callback=callback, auto_ack=True)
|
||||||
|
|
||||||
|
print('Ожидание сообщения...')
|
||||||
|
channel.start_consuming()
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
consume_events_1()
|
24
bogdanov_dmitry_lab_4/Sample Program/consumer2.py
Normal file
@ -0,0 +1,24 @@
|
|||||||
|
import pika
|
||||||
|
|
||||||
|
|
||||||
|
def callback(ch, method, properties, body):
|
||||||
|
print(f'Receiver 2: получено сообщение. {body.decode()}')
|
||||||
|
|
||||||
|
print('Receiver 2 закончил обработку')
|
||||||
|
|
||||||
|
|
||||||
|
def consume_events_2():
|
||||||
|
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.queue_declare(queue='receiver2_queue')
|
||||||
|
channel.queue_bind(exchange='greenhouse_events', queue='receiver2_queue')
|
||||||
|
|
||||||
|
channel.basic_consume(queue='receiver2_queue', on_message_callback=callback, auto_ack=True)
|
||||||
|
|
||||||
|
print('Ожидание сообщения...')
|
||||||
|
channel.start_consuming()
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
consume_events_2()
|
25
bogdanov_dmitry_lab_4/Sample Program/publisher.py
Normal file
@ -0,0 +1,25 @@
|
|||||||
|
import pika
|
||||||
|
import time
|
||||||
|
|
||||||
|
def publish_events():
|
||||||
|
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.exchange_declare(exchange='greenhouse_events', exchange_type='fanout')
|
||||||
|
|
||||||
|
events = [
|
||||||
|
"Влажность превысила верхнюю границу",
|
||||||
|
"Влажность упала за нижнюю границу",
|
||||||
|
"Полив начат",
|
||||||
|
"Полив остановлен"
|
||||||
|
]
|
||||||
|
|
||||||
|
while True:
|
||||||
|
event = events[int(time.time()) % len(events)]
|
||||||
|
channel.basic_publish(exchange='greenhouse_events', routing_key='', body=event)
|
||||||
|
print(f'Отправлено: {event}')
|
||||||
|
time.sleep(1)
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
publish_events()
|
25
bogdanov_dmitry_lab_4/Tutorial 1/receive.py
Normal file
@ -0,0 +1,25 @@
|
|||||||
|
import pika, sys, os
|
||||||
|
|
||||||
|
def main():
|
||||||
|
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.queue_declare(queue='hello')
|
||||||
|
|
||||||
|
def callback(ch, method, properties, body):
|
||||||
|
print(f" [x] Received {body}")
|
||||||
|
|
||||||
|
channel.basic_consume(queue='hello', on_message_callback=callback, auto_ack=True)
|
||||||
|
|
||||||
|
print(' [*] Waiting for messages. To exit press CTRL+C')
|
||||||
|
channel.start_consuming()
|
||||||
|
|
||||||
|
if __name__ == '__main__':
|
||||||
|
try:
|
||||||
|
main()
|
||||||
|
except KeyboardInterrupt:
|
||||||
|
print('Interrupted')
|
||||||
|
try:
|
||||||
|
sys.exit(0)
|
||||||
|
except SystemExit:
|
||||||
|
os._exit(0)
|
13
bogdanov_dmitry_lab_4/Tutorial 1/send.py
Normal file
@ -0,0 +1,13 @@
|
|||||||
|
import pika
|
||||||
|
|
||||||
|
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.queue_declare('hello')
|
||||||
|
|
||||||
|
channel.basic_publish(exchange='',
|
||||||
|
routing_key='hello',
|
||||||
|
body='Hello world!')
|
||||||
|
print(" [x] Sent 'Hello world!'")
|
||||||
|
|
||||||
|
connection.close()
|
19
bogdanov_dmitry_lab_4/Tutorial 2/new_task.py
Normal file
@ -0,0 +1,19 @@
|
|||||||
|
import pika
|
||||||
|
import sys
|
||||||
|
|
||||||
|
connection = pika.BlockingConnection(
|
||||||
|
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.queue_declare(queue='task_queue', durable=True)
|
||||||
|
|
||||||
|
message = ' '.join(sys.argv[1:]) or "Hello World!"
|
||||||
|
channel.basic_publish(
|
||||||
|
exchange='',
|
||||||
|
routing_key='task_queue',
|
||||||
|
body=message,
|
||||||
|
properties=pika.BasicProperties(
|
||||||
|
delivery_mode=pika.DeliveryMode.Persistent
|
||||||
|
))
|
||||||
|
print(f" [x] Sent {message}")
|
||||||
|
connection.close()
|
22
bogdanov_dmitry_lab_4/Tutorial 2/worker.py
Normal file
@ -0,0 +1,22 @@
|
|||||||
|
import pika
|
||||||
|
import time
|
||||||
|
|
||||||
|
connection = pika.BlockingConnection(
|
||||||
|
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.queue_declare(queue='task_queue', durable=True)
|
||||||
|
print(' [*] Waiting for messages. To exit press CTRL+C')
|
||||||
|
|
||||||
|
|
||||||
|
def callback(ch, method, properties, body):
|
||||||
|
print(f" [x] Received {body.decode()}")
|
||||||
|
time.sleep(body.count(b'.'))
|
||||||
|
print(" [x] Done")
|
||||||
|
ch.basic_ack(delivery_tag=method.delivery_tag)
|
||||||
|
|
||||||
|
|
||||||
|
channel.basic_qos(prefetch_count=1)
|
||||||
|
channel.basic_consume(queue='task_queue', on_message_callback=callback)
|
||||||
|
|
||||||
|
channel.start_consuming()
|
13
bogdanov_dmitry_lab_4/Tutorial 3/emit_log.py
Normal file
@ -0,0 +1,13 @@
|
|||||||
|
import pika
|
||||||
|
import sys
|
||||||
|
|
||||||
|
connection = pika.BlockingConnection(
|
||||||
|
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
||||||
|
|
||||||
|
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
|
||||||
|
channel.basic_publish(exchange='logs', routing_key='', body=message)
|
||||||
|
print(f" [x] Sent {message}")
|
||||||
|
connection.close()
|
22
bogdanov_dmitry_lab_4/Tutorial 3/receive_logs.py
Normal file
@ -0,0 +1,22 @@
|
|||||||
|
import pika
|
||||||
|
|
||||||
|
connection = pika.BlockingConnection(
|
||||||
|
pika.ConnectionParameters(host='localhost', port=5672, credentials=pika.PlainCredentials("user", "password")))
|
||||||
|
channel = connection.channel()
|
||||||
|
|
||||||
|
channel.exchange_declare(exchange='logs', exchange_type='fanout')
|
||||||
|
|
||||||
|
result = channel.queue_declare(queue='', exclusive=True)
|
||||||
|
queue_name = result.method.queue
|
||||||
|
|
||||||
|
channel.queue_bind(exchange='logs', queue=queue_name)
|
||||||
|
|
||||||
|
print(' [*] Waiting for logs. To exit press CTRL+C')
|
||||||
|
|
||||||
|
def callback(ch, method, properties, body):
|
||||||
|
print(f" [x] {body}")
|
||||||
|
|
||||||
|
channel.basic_consume(
|
||||||
|
queue=queue_name, on_message_callback=callback, auto_ack=True)
|
||||||
|
|
||||||
|
channel.start_consuming()
|
12
bogdanov_dmitry_lab_4/compose.yaml
Normal file
@ -0,0 +1,12 @@
|
|||||||
|
version: '3.8'
|
||||||
|
|
||||||
|
services:
|
||||||
|
rabbitmq:
|
||||||
|
image: rabbitmq:3-management
|
||||||
|
container_name: rabbitmq
|
||||||
|
environment:
|
||||||
|
RABBITMQ_DEFAULT_USER: user
|
||||||
|
RABBITMQ_DEFAULT_PASS: password
|
||||||
|
ports:
|
||||||
|
- "5672:5672"
|
||||||
|
- "15672:15672"
|
BIN
bogdanov_dmitry_lab_4/images/rmq1.png
Normal file
After Width: | Height: | Size: 38 KiB |
BIN
bogdanov_dmitry_lab_4/images/rmq2.png
Normal file
After Width: | Height: | Size: 33 KiB |
BIN
bogdanov_dmitry_lab_4/images/rmq3.png
Normal file
After Width: | Height: | Size: 28 KiB |
BIN
bogdanov_dmitry_lab_4/images/rmq4.png
Normal file
After Width: | Height: | Size: 29 KiB |
BIN
bogdanov_dmitry_lab_4/images/tut1.png
Normal file
After Width: | Height: | Size: 27 KiB |
BIN
bogdanov_dmitry_lab_4/images/tut2.png
Normal file
After Width: | Height: | Size: 28 KiB |
BIN
bogdanov_dmitry_lab_4/images/tut3.png
Normal file
After Width: | Height: | Size: 27 KiB |
88
bogdanov_dmitry_lab_5/MatrixMult/main.py
Normal file
@ -0,0 +1,88 @@
|
|||||||
|
import random as rnd
|
||||||
|
import threading
|
||||||
|
import time
|
||||||
|
from multiprocessing import Pool
|
||||||
|
|
||||||
|
def generateSquareMatrix(size):
|
||||||
|
return [[rnd.randint(0, 100) for i in range(size)] for j in range(size)]
|
||||||
|
|
||||||
|
def printMatrix(matrix):
|
||||||
|
for row in matrix:
|
||||||
|
print(*row, sep="\t")
|
||||||
|
|
||||||
|
|
||||||
|
# Перемножение без использования потоков
|
||||||
|
def matrixMultiplyStandard(matrix1, matrix2):
|
||||||
|
l1 = len(matrix1)
|
||||||
|
l2 = len(matrix2)
|
||||||
|
global result_matrix
|
||||||
|
result = result_matrix
|
||||||
|
for i in range(l1):
|
||||||
|
for j in range(l2):
|
||||||
|
for k in range(l2):
|
||||||
|
result[i][j] += matrix1[i][k] * matrix2[k][j]
|
||||||
|
|
||||||
|
return result
|
||||||
|
|
||||||
|
result_matrix = [[0 for i in range(500)] for j in range(500)]
|
||||||
|
|
||||||
|
# Перемножение в отдельном потоке
|
||||||
|
def matrixMultiplySingleThread(args):
|
||||||
|
matrix1, matrix2, start_i, end_i = args
|
||||||
|
global result_matrix
|
||||||
|
|
||||||
|
result = result_matrix
|
||||||
|
|
||||||
|
for i in range(start_i, end_i):
|
||||||
|
for j in range(len(matrix2[0])):
|
||||||
|
for k in range(len(matrix2)):
|
||||||
|
result[i][j] += matrix1[i - start_i][k] * matrix2[k][j]
|
||||||
|
|
||||||
|
# Параллельное перемножение, использует ф-ю выше для каждого потока
|
||||||
|
def matrixMultiplyWithThreads(matrix1, matrix2, thread_count):
|
||||||
|
l1 = len(matrix1)
|
||||||
|
l2 = len(matrix2)
|
||||||
|
|
||||||
|
# Кол-во строк на последний поток, если деление по потокам будет неточным
|
||||||
|
last_rows_count = 0
|
||||||
|
|
||||||
|
if l1 % thread_count == 0:
|
||||||
|
rows_per_thread = l1 // thread_count
|
||||||
|
else:
|
||||||
|
rows_per_thread = l1 // thread_count
|
||||||
|
last_rows_count = l1 % thread_count
|
||||||
|
|
||||||
|
for i in range(thread_count):
|
||||||
|
start_i = i * rows_per_thread
|
||||||
|
|
||||||
|
if (i - 1) == thread_count and last_rows_count > 0:
|
||||||
|
end_i = start_i + last_rows_count
|
||||||
|
else:
|
||||||
|
end_i = start_i + rows_per_thread
|
||||||
|
|
||||||
|
args = []
|
||||||
|
args.append((matrix1[start_i:end_i], matrix2, start_i, end_i))
|
||||||
|
with Pool(processes = thread_count) as pool:
|
||||||
|
pool.map(matrixMultiplySingleThread, args)
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
|
||||||
|
sizes = [100, 300, 500]
|
||||||
|
num_threads = [1, 5, 8, 12]
|
||||||
|
|
||||||
|
for size in sizes:
|
||||||
|
matrix1 = generateSquareMatrix(size)
|
||||||
|
matrix2 = generateSquareMatrix(size)
|
||||||
|
start_time = time.time()
|
||||||
|
matrixMultiplyStandard(matrix1, matrix2)
|
||||||
|
end_time = time.time()
|
||||||
|
print(f"Standard size {size}: {end_time - start_time}s")
|
||||||
|
|
||||||
|
for threads in num_threads:
|
||||||
|
start_time = time.time()
|
||||||
|
matrixMultiplyWithThreads(matrix1, matrix2, threads)
|
||||||
|
end_time = time.time()
|
||||||
|
print(f"Parallel size {size}, {threads} thread(s): {end_time - start_time}s")
|
||||||
|
|
||||||
|
print("-" * 100)
|
18
bogdanov_dmitry_lab_5/README.md
Normal file
@ -0,0 +1,18 @@
|
|||||||
|
# Богданов Дмитрий ПИбд-42
|
||||||
|
# Лабораторная работа №5
|
||||||
|
|
||||||
|
|
||||||
|
## Функционал:
|
||||||
|
- Были созданы методы генерации и отображения матриц заданного размера
|
||||||
|
- Былы созданы методы для параллельного умножения матриц с использованием Pool
|
||||||
|
- Был написан код для бенчмаркинга стандартного и параллельного перемножений
|
||||||
|
|
||||||
|
## Результаты выполнения:
|
||||||
|
|
||||||
|
![изображение 1](./images/Screenshot_1.png)
|
||||||
|
|
||||||
|
### Вывод:
|
||||||
|
Использование нескольких потоков приносит значительный выигрыш только на крупных матрицах, в то время как на матрицах меньшего размера больше времени уходит на менеджмент потоков. Это особенно заметно при сравнении результатов выполнения вычислений на матрице размером 100х100.
|
||||||
|
|
||||||
|
|
||||||
|
## [Видео](https://drive.google.com/file/d/1iPfLjzLiWwmszPH_KJ40vFCX-iWDLm1S/view?usp=sharing)
|
BIN
bogdanov_dmitry_lab_5/images/Screenshot_1.png
Normal file
After Width: | Height: | Size: 63 KiB |
20
bondarenko_max_lab_1/.env
Normal file
@ -0,0 +1,20 @@
|
|||||||
|
# PostgreSQL конфигурация
|
||||||
|
POSTGRES_DB=mediawiki
|
||||||
|
POSTGRES_USER=wikiuser
|
||||||
|
POSTGRES_PASSWORD=secret
|
||||||
|
|
||||||
|
# MediaWiki конфигурация
|
||||||
|
MEDIAWIKI_DB_NAME=mediawiki
|
||||||
|
MEDIAWIKI_DB_USER=wikiuser
|
||||||
|
MEDIAWIKI_DB_PASSWORD=secret
|
||||||
|
|
||||||
|
# WordPress конфигурация
|
||||||
|
WORDPRESS_DB_NAME=wordpress
|
||||||
|
WORDPRESS_DB_USER=wpuser
|
||||||
|
WORDPRESS_DB_PASSWORD=secret
|
||||||
|
|
||||||
|
# Порты
|
||||||
|
MEDIAWIKI_PORT=8080
|
||||||
|
WORDPRESS_PORT=8081
|
||||||
|
GITEA_WEB_PORT=3000
|
||||||
|
GITEA_SSH_PORT=222
|
0
bondarenko_max_lab_1/.gitignore
vendored
Normal file
33
bondarenko_max_lab_1/README.md
Normal file
@ -0,0 +1,33 @@
|
|||||||
|
# Лабораторная работа 1 - Знакомство с Docker и Docker Compose
|
||||||
|
### ПИбд-42 || Бондаренко Максим
|
||||||
|
|
||||||
|
# Описание работы
|
||||||
|
|
||||||
|
> Цель
|
||||||
|
Изучение современных технологий контейнеризации.
|
||||||
|
|
||||||
|
> Задачи
|
||||||
|
1. Установка Docker Desktop.
|
||||||
|
2. Принципы Docker.
|
||||||
|
3. Изучение Docker Compose.
|
||||||
|
4. Разворачивание сервисов.
|
||||||
|
5. Оформление отчёта.
|
||||||
|
|
||||||
|
> Ход выполнения работы
|
||||||
|
1. Открыть документацию docker и страницу на habr
|
||||||
|
2. Скачать и установить docker desktop
|
||||||
|
3. Смотрим на docker hub как поднять с помощью docker-compose -> gitea, mediawiki, postgresql
|
||||||
|
4. Запускаем в терминале 'docker-compose up'
|
||||||
|
4. Исправляем ошибки
|
||||||
|
5. Записываем видео
|
||||||
|
6. pushим ветку на git
|
||||||
|
7. кидаем mrку (merge request)
|
||||||
|
|
||||||
|
> Инструкция по запуску
|
||||||
|
1. Скачать и установить Docker, если ещё не сделано
|
||||||
|
2. Перейти в bondarenko_max_lab_1 (cd ./bondarenko_max_lab_1/)
|
||||||
|
3. Выполнить в терминале 'docker-compose up'
|
||||||
|
4. Проверить порты, на которых docker поднял контейнеры
|
||||||
|
|
||||||
|
> Видео демонстрация работы
|
||||||
|
https://cloud.mail.ru/public/xHc2/JorYr5nDg
|
46
bondarenko_max_lab_1/docker-compose.yml
Normal file
@ -0,0 +1,46 @@
|
|||||||
|
# Версия файла docker-compose, которую мы используем
|
||||||
|
version: '3.8'
|
||||||
|
|
||||||
|
# Определение сервисов
|
||||||
|
# Все последующие готовые образы в services будут взяты с Docker Hub -> image: название:версия
|
||||||
|
# Далее в services будут использоваться переменные окружения из .env -> ${Переменная_среды}
|
||||||
|
# Схема пробросов портов -> ports: внешний порт на хосте:внутренний порт в контейнере
|
||||||
|
services:
|
||||||
|
db:
|
||||||
|
image: postgres:latest # Готовый образ postgres
|
||||||
|
environment:
|
||||||
|
- POSTGRES_DB=${POSTGRES_DB} # Имя БД
|
||||||
|
- POSTGRES_USER=${POSTGRES_USER} # Пользователь БД
|
||||||
|
- POSTGRES_PASSWORD=${POSTGRES_PASSWORD} # Пароль пользователя БД
|
||||||
|
volumes:
|
||||||
|
- db_data:/var/lib/postgresql/data # Монтирование volume для постоянного хранения данных БД
|
||||||
|
|
||||||
|
mediawiki:
|
||||||
|
image: mediawiki:latest # Готовый образ mediawiki
|
||||||
|
ports:
|
||||||
|
- "${MEDIAWIKI_PORT}:80" # Проброс порта
|
||||||
|
volumes:
|
||||||
|
- mediawiki_data:/var/www/html # Монтирование volume для постоянного хранения данных
|
||||||
|
environment:
|
||||||
|
- MEDIAWIKI_DB_HOST=db # Хост БД
|
||||||
|
- MEDIAWIKI_DB_NAME=${MEDIAWIKI_DB_NAME} # Имя БД для MediaWiki
|
||||||
|
- MEDIAWIKI_DB_USER=${MEDIAWIKI_DB_USER} # Пользователь БД
|
||||||
|
- MEDIAWIKI_DB_PASSWORD=${MEDIAWIKI_DB_PASSWORD} # Пароль пользователя БД
|
||||||
|
|
||||||
|
gitea:
|
||||||
|
image: gitea/gitea:latest # Готовый образ gitea
|
||||||
|
ports:
|
||||||
|
- "${GITEA_WEB_PORT}:3000" # Проброс веб-порта
|
||||||
|
- "${GITEA_SSH_PORT}:22" # Проброс SSH-порта
|
||||||
|
volumes:
|
||||||
|
- gitea_data:/data # Монтирование volume для постоянного хранения данных
|
||||||
|
environment:
|
||||||
|
- USER_UID=1000 # UID пользователя внутри контейнера
|
||||||
|
- USER_GID=1000 # GID пользователя внутри контейнера
|
||||||
|
|
||||||
|
# Определение volumes для хранения данных вне контейнеров
|
||||||
|
volumes:
|
||||||
|
mediawiki_data:
|
||||||
|
wordpress_data:
|
||||||
|
gitea_data:
|
||||||
|
db_data:
|
61
borschevskaya_anna_lab_1/README.md
Normal file
@ -0,0 +1,61 @@
|
|||||||
|
# Отчет. Лабораторная работа 1
|
||||||
|
|
||||||
|
В рамках лабораторной работы с помощью технологии контейнеризации docker были развернуты сервисы:
|
||||||
|
- Redmine - система баг-трекинга
|
||||||
|
- Postgres - СУБД
|
||||||
|
- RabbitMQ - брокер сообщений
|
||||||
|
|
||||||
|
## Описание
|
||||||
|
В docker-compose.yml файле описаны настройки для запуска трех выбранных сервисов в контейнерах. Для большинства строк файла оставлены
|
||||||
|
комментарии, объясняющие содержимое файла.
|
||||||
|
|
||||||
|
Стоит отметить, для сервиса Redmine было принято решение в качестве сервера баз данных не использовать базу данных по умолчанию - SQLite,
|
||||||
|
а поднять внешний сервер баз данных Postgres, который был запущен в рамках этого же файла docker-compose.yml.
|
||||||
|
|
||||||
|
Для того, чтобы при старте postgres уже была создана база данных для Redmine, а также пользователь, под учетной записью
|
||||||
|
которого будет работать Redmine, был написан скрипт init-database.sh с использованием bash и sql:
|
||||||
|
```
|
||||||
|
# Создаем пользователя redmine и БД redminedb
|
||||||
|
psql -v ON_ERROR_STOP=1 --username "$POSTGRES_USER" --dbname "$POSTGRES_DB" <<-EOSQL
|
||||||
|
CREATE USER redmine WITH PASSWORD 'redmine-password';
|
||||||
|
CREATE DATABASE redminedb;
|
||||||
|
GRANT ALL PRIVILEGES ON DATABASE redminedb TO redmine;
|
||||||
|
EOSQL
|
||||||
|
|
||||||
|
# Даем права на схему public
|
||||||
|
psql -v ON_ERROR_STOP=1 --username "$POSTGRES_USERNAME" -d redminedb <<-EOSQL
|
||||||
|
ALTER SCHEMA public OWNER TO redmine;
|
||||||
|
GRANT ALL ON SCHEMA public TO redmine;
|
||||||
|
EOSQL
|
||||||
|
```
|
||||||
|
|
||||||
|
Этот скрипт монтируется в директорию контейнера postgres ``docker-entrypoint-initdb.d``, которая является специальной точкой входа
|
||||||
|
для инициализации БД и содержит соответствующие скрипты.
|
||||||
|
|
||||||
|
## Как запустить
|
||||||
|
Для того, чтобы запустить сервисы, необходимо выполнить следующие действия:
|
||||||
|
1. Установить и запустить Docker Engine или Docker Desktop (включает в себя Docker Engine и предоставляет UI)
|
||||||
|
2. Через консоль перейти в папку, в которой расположен файл docker-compose.yml
|
||||||
|
3. Выполнить команду:
|
||||||
|
```
|
||||||
|
docker compose up -d
|
||||||
|
```
|
||||||
|
В случае успешного запуска всех контейнеров в консоли будет выведено следующее сообщение:
|
||||||
|
```
|
||||||
|
[+] Running 3/3
|
||||||
|
✔ Container rabbitmq Started 0.8s
|
||||||
|
✔ Container redmine Started 1.2s
|
||||||
|
✔ Container postgres Started 0.5s
|
||||||
|
```
|
||||||
|
Также будет создана папка postgres_data, которая монтируется в контейнере postgres
|
||||||
|
|
||||||
|
Мы также можем увидеть статус всех запущенных контейнеров, если выполним команду:
|
||||||
|
```
|
||||||
|
docker ps
|
||||||
|
```
|
||||||
|
Или обратившись к логам каждого из контейнеров:
|
||||||
|
``
|
||||||
|
docker logs <container_name>
|
||||||
|
``
|
||||||
|
## Видео-отчет
|
||||||
|
Работоспособность лабораторной работы можно оценить в следующем [видео](https://disk.yandex.ru/d/15QhUl3KQYSavA).
|