Compare commits
22 Commits
dozorova_a
...
dozorova_a
| Author | SHA1 | Date | |
|---|---|---|---|
| e1950c80ea | |||
| 5586bec4b8 | |||
| 4c74a16753 | |||
| a830cb2198 | |||
| 9d0fa199f7 | |||
| c509e74465 | |||
| 314751f25c | |||
| 48f7f3a215 | |||
| f112d2a44b | |||
| 477afb824d | |||
| e7b9938278 | |||
|
|
0c3e973307 | ||
| c474c13c4a | |||
| 829a04a913 | |||
| 221f3e248b | |||
| 3d98388a13 | |||
| 4922e9075e | |||
| 891eae4211 | |||
| 0590f7b532 | |||
| 0eec58a347 | |||
|
|
c8dbd5fb37 | ||
| 253ad80e31 |
26
.gitignore
vendored
@@ -7,3 +7,29 @@
|
||||
/dozorova_alena_lab_2/ConsoleApp2/.vs
|
||||
/dozorova_alena_lab_2/ConsoleApp2/bin
|
||||
/dozorova_alena_lab_2/ConsoleApp2/obj
|
||||
/dozorova_alena_lab_3/PostService/.vs
|
||||
/dozorova_alena_lab_3/WorkerService/.vs
|
||||
/dozorova_alena_lab_4/Receive/bin
|
||||
/dozorova_alena_lab_4/Receive/obj
|
||||
/dozorova_alena_lab_4/Send/bin
|
||||
/dozorova_alena_lab_4/Send/obj
|
||||
/dozorova_alena_lab_4/EmitLog/.vs
|
||||
/dozorova_alena_lab_4/EmitLog/obj
|
||||
/dozorova_alena_lab_4/NewTask/.vs
|
||||
/dozorova_alena_lab_4/NewTask/bin
|
||||
/dozorova_alena_lab_4/NewTask/obj
|
||||
/dozorova_alena_lab_4/ReceiveLogs/obj
|
||||
/dozorova_alena_lab_4/Worker/.vs
|
||||
/dozorova_alena_lab_4/Worker/bin
|
||||
/dozorova_alena_lab_4/Worker/obj
|
||||
/dozorova_alena_lab_4/EmitLog/bin
|
||||
/dozorova_alena_lab_4/ReceiveLogs/.vs
|
||||
/dozorova_alena_lab_4/ReceiveLogs/bin
|
||||
/dozorova_alena_lab_4/ConsumerDelay/.vs
|
||||
/dozorova_alena_lab_4/ConsumerDelay/obj
|
||||
/dozorova_alena_lab_4/ConsumerDelay/Properties
|
||||
/dozorova_alena_lab_4/ConsumerSimple/.vs
|
||||
/dozorova_alena_lab_4/ConsumerSimple/obj
|
||||
/dozorova_alena_lab_4/Publisher/.vs
|
||||
/dozorova_alena_lab_4/Publisher/bin
|
||||
/dozorova_alena_lab_4/Publisher/obj
|
||||
|
||||
59
balakhonov_danila_lab_1/README.md
Normal file
@@ -0,0 +1,59 @@
|
||||
# Лабораторная работа номер 1
|
||||
|
||||
> Здравствуйте меня зовут Балахонов Данила группа ПИбд-42
|
||||
>
|
||||
> *— Балахонов Данила ПИбд-42*
|
||||
|
||||
Видео лабораторной работы номер 1 доступно по этой [ссылке](https://drive.google.com/file/d/1Up_JzDcK_TjYLixpfYXN7PhJmOeg_Uck/view?usp=sharing).
|
||||
|
||||
## Как запустить лабораторную работу номер 1?
|
||||
### Необходимые компоненты для запуска лабораторной работы номер 1
|
||||
> Здесь рассказана установка необходимых компонентов для запуска лабораторной работы номер 1 под дистрибутив GNU/Linux **Ubuntu**.
|
||||
|
||||
Для запуска лабораторной работы номер 1 необходимы такие компоненты:
|
||||
- Git
|
||||
- Docker
|
||||
- Docker compose
|
||||
|
||||
Чтобы установить **Git**, необходимо ввести данные команды в командную строку:
|
||||
``` bash
|
||||
sudo apt-get update
|
||||
sudo apt-get install git
|
||||
```
|
||||
|
||||
Чтобы установить **Docker** и **Docker compose**, стоит ввести такие команды:
|
||||
``` bash
|
||||
# Настройка репозитория Docker
|
||||
sudo apt-get update
|
||||
sudo apt-get install ca-certificates curl
|
||||
sudo install -m 0755 -d /etc/apt/keyrings
|
||||
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
|
||||
sudo chmod a+r /etc/apt/keyrings/docker.asc
|
||||
|
||||
echo \
|
||||
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
|
||||
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
|
||||
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
|
||||
sudo apt-get update
|
||||
|
||||
# Установка Docker и его компонентов
|
||||
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
|
||||
```
|
||||
### Запуск лабораторной работы номер 1
|
||||
Для запуска лабораторной работы номер 1 необходимо **склонировать** репозиторий в любую папку и **перейти на ветку** balakhonov_danila_lab_1.
|
||||
Далее в папке с `docker-compose.yaml` нужно вызвать такую команду:
|
||||
``` bash
|
||||
sudo docker-compose up -d
|
||||
```
|
||||
Таким образом будут запущены контейнеры в фоновом режиме.
|
||||
## Какие технологии были использованы?
|
||||
Для выполнения лабораторной работы номер 1 использовались такие технологии, как: *git*, *docker*, *docker compose*.
|
||||
|
||||
Сервисы, выбранные для запуска в docker-compose файле:
|
||||
- *Gitea* - удобный сервис отслеживания версий разрабатываемого ПО
|
||||
- *MediaWiki* - сервис создания и ведения электронной энциклопедии
|
||||
- *PostgreSQL* - база данных, используемая сервисами выше
|
||||
|
||||
Системой, на которую были установлены указанные технологии, является Ubuntu 22.
|
||||
## Что делает лабораторная работа номер 1?
|
||||
Лабораторная работа номер 1 заключается в написании docker-compose файла для удобного запуска и администрирования сразу нескольких сервисов в docker-контейнерах.
|
||||
58
balakhonov_danila_lab_1/docker-compose.yaml
Normal file
@@ -0,0 +1,58 @@
|
||||
services:
|
||||
# PostgreSQL
|
||||
db:
|
||||
# Образ контейнера PostgreSQL последней версии
|
||||
image: postgres
|
||||
# Название контейнера
|
||||
container_name: db
|
||||
# Переменные окружения для настройки базы данных
|
||||
environment:
|
||||
- POSTGRES_USER=gitea
|
||||
- POSTGRES_PASSWORD=gitea
|
||||
- POSTGRES_DB=gitea
|
||||
# Настройка корневого каталога, где хранятся данные
|
||||
# Слева указан каталог компьютера, справа - каталог контейнера
|
||||
# Нужно для сохранения данных на сервере после отключения контейнера
|
||||
volumes:
|
||||
- ./postgres:/var/lib/postgresql/data
|
||||
# Порт, через который можно будет подключиться к базе данных
|
||||
ports:
|
||||
- 5432:5432
|
||||
# После перезапуска докера всегда запускать этот контейнер
|
||||
restart: always
|
||||
# Gitea
|
||||
gitea:
|
||||
# Используется Gitea последней версии
|
||||
image: gitea/gitea
|
||||
container_name: gitea
|
||||
# После перезапуска докера всегда запускать этот контейнер
|
||||
restart: always
|
||||
volumes:
|
||||
- ./data:/var/lib/gitea
|
||||
- ./config:/etc/gitea
|
||||
- /etc/timezone:/etc/timezone:ro
|
||||
- /etc/localtime:/etc/localtime:ro
|
||||
ports:
|
||||
- 3000:3000
|
||||
- 2222:2222
|
||||
environment:
|
||||
- GITEA__database__DB_TYPE=postgres
|
||||
- GITEA__database__HOST=db:5432
|
||||
- GITEA__database__NAME=gitea
|
||||
- GITEA__database__USER=gitea
|
||||
- GITEA__database__PASSWD=gitea
|
||||
# Указывается, что этот контейнер запускается только после запуска контейнера db
|
||||
depends_on:
|
||||
- db
|
||||
# MediaWiki
|
||||
mediawiki:
|
||||
# Образ контейнера MediaWiki последней версии
|
||||
image: mediawiki
|
||||
container_name: mediawiki
|
||||
restart: always
|
||||
ports:
|
||||
- 8080:80
|
||||
links:
|
||||
- db
|
||||
volumes:
|
||||
- ./images:/var/www/html/images
|
||||
30
dozorova_alena_lab_4/ConsumerDelay/.dockerignore
Normal file
@@ -0,0 +1,30 @@
|
||||
**/.classpath
|
||||
**/.dockerignore
|
||||
**/.env
|
||||
**/.git
|
||||
**/.gitignore
|
||||
**/.project
|
||||
**/.settings
|
||||
**/.toolstarget
|
||||
**/.vs
|
||||
**/.vscode
|
||||
**/*.*proj.user
|
||||
**/*.dbmdl
|
||||
**/*.jfm
|
||||
**/azds.yaml
|
||||
**/bin
|
||||
**/charts
|
||||
**/docker-compose*
|
||||
**/Dockerfile*
|
||||
**/node_modules
|
||||
**/npm-debug.log
|
||||
**/obj
|
||||
**/secrets.dev.yaml
|
||||
**/values.dev.yaml
|
||||
LICENSE
|
||||
README.md
|
||||
!**/.gitignore
|
||||
!.git/HEAD
|
||||
!.git/config
|
||||
!.git/packed-refs
|
||||
!.git/refs/heads/**
|
||||
17
dozorova_alena_lab_4/ConsumerDelay/ConsumerDelay.csproj
Normal file
@@ -0,0 +1,17 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net6.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
|
||||
<DockerfileContext>.</DockerfileContext>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
@@ -0,0 +1,6 @@
|
||||
<?xml version="1.0" encoding="utf-8"?>
|
||||
<Project ToolsVersion="Current" xmlns="http://schemas.microsoft.com/developer/msbuild/2003">
|
||||
<PropertyGroup>
|
||||
<ActiveDebugProfile>Container (Dockerfile)</ActiveDebugProfile>
|
||||
</PropertyGroup>
|
||||
</Project>
|
||||
25
dozorova_alena_lab_4/ConsumerDelay/ConsumerDelay.sln
Normal file
@@ -0,0 +1,25 @@
|
||||
|
||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
||||
# Visual Studio Version 17
|
||||
VisualStudioVersion = 17.10.35004.147
|
||||
MinimumVisualStudioVersion = 10.0.40219.1
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsumerDelay", "ConsumerDelay.csproj", "{4DD86D5F-D90D-4BBB-AAA4-F16DA855B51E}"
|
||||
EndProject
|
||||
Global
|
||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
||||
Debug|Any CPU = Debug|Any CPU
|
||||
Release|Any CPU = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
||||
{4DD86D5F-D90D-4BBB-AAA4-F16DA855B51E}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{4DD86D5F-D90D-4BBB-AAA4-F16DA855B51E}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{4DD86D5F-D90D-4BBB-AAA4-F16DA855B51E}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{4DD86D5F-D90D-4BBB-AAA4-F16DA855B51E}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(SolutionProperties) = preSolution
|
||||
HideSolutionNode = FALSE
|
||||
EndGlobalSection
|
||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
||||
SolutionGuid = {3E7AED20-0868-42FE-9C39-581BC9D2BB22}
|
||||
EndGlobalSection
|
||||
EndGlobal
|
||||
22
dozorova_alena_lab_4/ConsumerDelay/Dockerfile
Normal file
@@ -0,0 +1,22 @@
|
||||
#See https://aka.ms/customizecontainer to learn how to customize your debug container and how Visual Studio uses this Dockerfile to build your images for faster debugging.
|
||||
|
||||
FROM mcr.microsoft.com/dotnet/runtime:6.0 AS base
|
||||
WORKDIR /app
|
||||
|
||||
FROM mcr.microsoft.com/dotnet/sdk:6.0 AS build
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
WORKDIR /src
|
||||
COPY ["ConsumerDelay.csproj", "."]
|
||||
RUN dotnet restore "./ConsumerDelay.csproj"
|
||||
COPY . .
|
||||
WORKDIR "/src/."
|
||||
RUN dotnet build "./ConsumerDelay.csproj" -c $BUILD_CONFIGURATION -o /app/build
|
||||
|
||||
FROM build AS publish
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
RUN dotnet publish "./ConsumerDelay.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
|
||||
|
||||
FROM base AS final
|
||||
WORKDIR /app
|
||||
COPY --from=publish /app/publish .
|
||||
ENTRYPOINT ["dotnet", "ConsumerDelay.dll"]
|
||||
24
dozorova_alena_lab_4/ConsumerDelay/Program.cs
Normal file
@@ -0,0 +1,24 @@
|
||||
using ConsumerDelay;
|
||||
|
||||
var rabbitHost = Environment.GetEnvironmentVariable("RABBIT_HOST") ?? "localhost";
|
||||
var rabbitUsername = Environment.GetEnvironmentVariable("RABBIT_USERNAME") ?? "user";
|
||||
var rabbitPassword = Environment.GetEnvironmentVariable("RABBIT_PASSWORD") ?? "password";
|
||||
var rabbitExchange = Environment.GetEnvironmentVariable("RABBIT_EXCHANGE") ?? "ReportIn";
|
||||
var rabbitQueue = Environment.GetEnvironmentVariable("RABBIT_QUEUE") ?? "Second";
|
||||
|
||||
Thread.Sleep(2000);
|
||||
|
||||
var receiver = new Receiver(rabbitHost, rabbitUsername, rabbitPassword);
|
||||
|
||||
receiver.SubscribeTo(rabbitExchange, (message) =>
|
||||
{
|
||||
var rnd = new Random();
|
||||
|
||||
Console.WriteLine($"Пришло сообщение: {message}");
|
||||
|
||||
Thread.Sleep(rnd.Next(2000, 3000));
|
||||
Console.WriteLine($"Обработка сообщения завершена");
|
||||
},
|
||||
rabbitQueue);
|
||||
|
||||
while (true) ;
|
||||
82
dozorova_alena_lab_4/ConsumerDelay/Receiver.cs
Normal file
@@ -0,0 +1,82 @@
|
||||
using RabbitMQ.Client;
|
||||
using RabbitMQ.Client.Events;
|
||||
using System.Text;
|
||||
|
||||
namespace ConsumerDelay
|
||||
{
|
||||
public class Receiver : IDisposable
|
||||
{
|
||||
private readonly ConnectionFactory _connectionFactory;
|
||||
private readonly IConnection _connection;
|
||||
private readonly IModel _channel;
|
||||
|
||||
public Dictionary<string, HashSet<string>> Queues { get; private set; } = new();
|
||||
|
||||
public Receiver(string brockerHost, string brockerUsername, string brockerPassword)
|
||||
{
|
||||
_connectionFactory = new ConnectionFactory() { HostName = brockerHost, UserName = brockerUsername, Password = brockerPassword };
|
||||
_connection = _connectionFactory.CreateConnection();
|
||||
_channel = _connection.CreateModel();
|
||||
}
|
||||
|
||||
public bool SubscribeTo(string exchange, Action<string> handler, string? queueName = null)
|
||||
{
|
||||
try
|
||||
{
|
||||
if (!Queues.ContainsKey(exchange))
|
||||
{
|
||||
_channel.ExchangeDeclare(exchange: "logs", type: ExchangeType.Fanout);
|
||||
Queues.Add(exchange, new HashSet<string>());
|
||||
}
|
||||
if (queueName != null)
|
||||
_channel.QueueDeclare(queue: queueName,
|
||||
durable: true,
|
||||
exclusive: false,
|
||||
autoDelete: false,
|
||||
arguments: null);
|
||||
|
||||
queueName = queueName ?? _channel.QueueDeclare().QueueName;
|
||||
|
||||
|
||||
_channel.QueueBind(queue: queueName,
|
||||
exchange: exchange,
|
||||
routingKey: string.Empty);
|
||||
|
||||
var consumer = new EventingBasicConsumer(_channel);
|
||||
consumer.Received += (model, ea) =>
|
||||
{
|
||||
try
|
||||
{
|
||||
var message = Encoding.UTF8.GetString(ea.Body.ToArray());
|
||||
handler(message);
|
||||
_channel.BasicAck(deliveryTag: ea.DeliveryTag, multiple: false);
|
||||
}
|
||||
catch (Exception ex)
|
||||
{
|
||||
Console.WriteLine(ex.Message);
|
||||
}
|
||||
|
||||
};
|
||||
_channel.BasicConsume(queue: queueName,
|
||||
autoAck: false,
|
||||
consumer: consumer);
|
||||
|
||||
Queues[exchange].Add(queueName);
|
||||
return true;
|
||||
}
|
||||
catch (Exception ex)
|
||||
{
|
||||
Console.WriteLine(ex.Message);
|
||||
}
|
||||
return false;
|
||||
}
|
||||
|
||||
~Receiver() => Dispose();
|
||||
|
||||
public void Dispose()
|
||||
{
|
||||
_connection.Dispose();
|
||||
_channel.Dispose();
|
||||
}
|
||||
}
|
||||
}
|
||||
30
dozorova_alena_lab_4/ConsumerSimple/.dockerignore
Normal file
@@ -0,0 +1,30 @@
|
||||
**/.classpath
|
||||
**/.dockerignore
|
||||
**/.env
|
||||
**/.git
|
||||
**/.gitignore
|
||||
**/.project
|
||||
**/.settings
|
||||
**/.toolstarget
|
||||
**/.vs
|
||||
**/.vscode
|
||||
**/*.*proj.user
|
||||
**/*.dbmdl
|
||||
**/*.jfm
|
||||
**/azds.yaml
|
||||
**/bin
|
||||
**/charts
|
||||
**/docker-compose*
|
||||
**/Dockerfile*
|
||||
**/node_modules
|
||||
**/npm-debug.log
|
||||
**/obj
|
||||
**/secrets.dev.yaml
|
||||
**/values.dev.yaml
|
||||
LICENSE
|
||||
README.md
|
||||
!**/.gitignore
|
||||
!.git/HEAD
|
||||
!.git/config
|
||||
!.git/packed-refs
|
||||
!.git/refs/heads/**
|
||||
17
dozorova_alena_lab_4/ConsumerSimple/ConsumerSimple.csproj
Normal file
@@ -0,0 +1,17 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net6.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
|
||||
<DockerfileContext>.</DockerfileContext>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
@@ -0,0 +1,6 @@
|
||||
<?xml version="1.0" encoding="utf-8"?>
|
||||
<Project ToolsVersion="Current" xmlns="http://schemas.microsoft.com/developer/msbuild/2003">
|
||||
<PropertyGroup>
|
||||
<ActiveDebugProfile>Container (Dockerfile)</ActiveDebugProfile>
|
||||
</PropertyGroup>
|
||||
</Project>
|
||||
25
dozorova_alena_lab_4/ConsumerSimple/ConsumerSimple.sln
Normal file
@@ -0,0 +1,25 @@
|
||||
|
||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
||||
# Visual Studio Version 17
|
||||
VisualStudioVersion = 17.10.35004.147
|
||||
MinimumVisualStudioVersion = 10.0.40219.1
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "ConsumerSimple", "ConsumerSimple.csproj", "{ACA8DE52-E29E-41BA-B3DA-213AF316685E}"
|
||||
EndProject
|
||||
Global
|
||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
||||
Debug|Any CPU = Debug|Any CPU
|
||||
Release|Any CPU = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
||||
{ACA8DE52-E29E-41BA-B3DA-213AF316685E}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{ACA8DE52-E29E-41BA-B3DA-213AF316685E}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{ACA8DE52-E29E-41BA-B3DA-213AF316685E}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{ACA8DE52-E29E-41BA-B3DA-213AF316685E}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(SolutionProperties) = preSolution
|
||||
HideSolutionNode = FALSE
|
||||
EndGlobalSection
|
||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
||||
SolutionGuid = {73265D6C-436C-470E-AE8A-17047E6C2ECC}
|
||||
EndGlobalSection
|
||||
EndGlobal
|
||||
22
dozorova_alena_lab_4/ConsumerSimple/Dockerfile
Normal file
@@ -0,0 +1,22 @@
|
||||
#See https://aka.ms/customizecontainer to learn how to customize your debug container and how Visual Studio uses this Dockerfile to build your images for faster debugging.
|
||||
|
||||
FROM mcr.microsoft.com/dotnet/runtime:6.0 AS base
|
||||
WORKDIR /app
|
||||
|
||||
FROM mcr.microsoft.com/dotnet/sdk:6.0 AS build
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
WORKDIR /src
|
||||
COPY ["ConsumerSimple.csproj", "."]
|
||||
RUN dotnet restore "./ConsumerSimple.csproj"
|
||||
COPY . .
|
||||
WORKDIR "/src/."
|
||||
RUN dotnet build "./ConsumerSimple.csproj" -c $BUILD_CONFIGURATION -o /app/build
|
||||
|
||||
FROM build AS publish
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
RUN dotnet publish "./ConsumerSimple.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
|
||||
|
||||
FROM base AS final
|
||||
WORKDIR /app
|
||||
COPY --from=publish /app/publish .
|
||||
ENTRYPOINT ["dotnet", "ConsumerSimple.dll"]
|
||||
23
dozorova_alena_lab_4/ConsumerSimple/Program.cs
Normal file
@@ -0,0 +1,23 @@
|
||||
using ConsumerSimple;
|
||||
|
||||
var rabbitHost = Environment.GetEnvironmentVariable("RABBIT_HOST") ?? "localhost";
|
||||
var rabbitUsername = Environment.GetEnvironmentVariable("RABBIT_USERNAME") ?? "user";
|
||||
var rabbitPassword = Environment.GetEnvironmentVariable("RABBIT_PASSWORD") ?? "password";
|
||||
var rabbitExchange = Environment.GetEnvironmentVariable("RABBIT_EXCHANGE") ?? "ReportIn";
|
||||
var rabbitQueue = Environment.GetEnvironmentVariable("RABBIT_QUEUE") ?? "First";
|
||||
|
||||
Thread.Sleep(2000);
|
||||
|
||||
var receiver = new Receiver(rabbitHost, rabbitUsername, rabbitPassword);
|
||||
|
||||
receiver.SubscribeTo(rabbitExchange, (message) =>
|
||||
{
|
||||
var rnd = new Random();
|
||||
|
||||
Console.WriteLine($"Пришло сообщение: {message}");
|
||||
|
||||
Console.WriteLine($"Сообщение обрабатывается мгновенно");
|
||||
},
|
||||
rabbitQueue);
|
||||
|
||||
while (true) ;
|
||||
@@ -0,0 +1,10 @@
|
||||
{
|
||||
"profiles": {
|
||||
"ConsumerSimple": {
|
||||
"commandName": "Project"
|
||||
},
|
||||
"Container (Dockerfile)": {
|
||||
"commandName": "Docker"
|
||||
}
|
||||
}
|
||||
}
|
||||
82
dozorova_alena_lab_4/ConsumerSimple/Receiver.cs
Normal file
@@ -0,0 +1,82 @@
|
||||
using RabbitMQ.Client;
|
||||
using RabbitMQ.Client.Events;
|
||||
using System.Text;
|
||||
|
||||
namespace ConsumerSimple
|
||||
{
|
||||
public class Receiver : IDisposable
|
||||
{
|
||||
private readonly ConnectionFactory _connectionFactory;
|
||||
private readonly IConnection _connection;
|
||||
private readonly IModel _channel;
|
||||
|
||||
public Dictionary<string, HashSet<string>> Queues { get; private set; } = new();
|
||||
|
||||
public Receiver(string brockerHost, string brockerUsername, string brockerPassword)
|
||||
{
|
||||
_connectionFactory = new ConnectionFactory() { HostName = brockerHost, UserName = brockerUsername, Password = brockerPassword };
|
||||
_connection = _connectionFactory.CreateConnection();
|
||||
_channel = _connection.CreateModel();
|
||||
}
|
||||
|
||||
public bool SubscribeTo(string exchange, Action<string> handler, string? queueName = null)
|
||||
{
|
||||
try
|
||||
{
|
||||
if (!Queues.ContainsKey(exchange))
|
||||
{
|
||||
_channel.ExchangeDeclare(exchange: "logs", type: ExchangeType.Fanout);
|
||||
Queues.Add(exchange, new HashSet<string>());
|
||||
}
|
||||
if (queueName != null)
|
||||
_channel.QueueDeclare(queue: queueName,
|
||||
durable: true,
|
||||
exclusive: false,
|
||||
autoDelete: false,
|
||||
arguments: null);
|
||||
|
||||
queueName = queueName ?? _channel.QueueDeclare().QueueName;
|
||||
|
||||
|
||||
_channel.QueueBind(queue: queueName,
|
||||
exchange: exchange,
|
||||
routingKey: string.Empty);
|
||||
|
||||
var consumer = new EventingBasicConsumer(_channel);
|
||||
consumer.Received += (model, ea) =>
|
||||
{
|
||||
try
|
||||
{
|
||||
var message = Encoding.UTF8.GetString(ea.Body.ToArray());
|
||||
handler(message);
|
||||
_channel.BasicAck(deliveryTag: ea.DeliveryTag, multiple: false);
|
||||
}
|
||||
catch (Exception ex)
|
||||
{
|
||||
Console.WriteLine(ex.Message);
|
||||
}
|
||||
|
||||
};
|
||||
_channel.BasicConsume(queue: queueName,
|
||||
autoAck: false,
|
||||
consumer: consumer);
|
||||
|
||||
Queues[exchange].Add(queueName);
|
||||
return true;
|
||||
}
|
||||
catch (Exception ex)
|
||||
{
|
||||
Console.WriteLine(ex.Message);
|
||||
}
|
||||
return false;
|
||||
}
|
||||
|
||||
~Receiver() => Dispose();
|
||||
|
||||
public void Dispose()
|
||||
{
|
||||
_connection.Dispose();
|
||||
_channel.Dispose();
|
||||
}
|
||||
}
|
||||
}
|
||||
15
dozorova_alena_lab_4/EmitLog/EmitLog..csproj
Normal file
@@ -0,0 +1,15 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<RootNamespace>EmitLog_</RootNamespace>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
24
dozorova_alena_lab_4/EmitLog/Program.cs
Normal file
@@ -0,0 +1,24 @@
|
||||
using System.Text;
|
||||
using RabbitMQ.Client;
|
||||
|
||||
var factory = new ConnectionFactory { HostName = "localhost" };
|
||||
using var connection = factory.CreateConnection();
|
||||
using var channel = connection.CreateModel();
|
||||
|
||||
channel.ExchangeDeclare(exchange: "logs", type: ExchangeType.Fanout);
|
||||
|
||||
var message = GetMessage(args);
|
||||
var body = Encoding.UTF8.GetBytes(message);
|
||||
channel.BasicPublish(exchange: "logs",
|
||||
routingKey: string.Empty,
|
||||
basicProperties: null,
|
||||
body: body);
|
||||
Console.WriteLine($" [x] Sent {message}");
|
||||
|
||||
Console.WriteLine(" Press [enter] to exit.");
|
||||
Console.ReadLine();
|
||||
|
||||
static string GetMessage(string[] args)
|
||||
{
|
||||
return ((args.Length > 0) ? string.Join(" ", args) : "info: Hello World!");
|
||||
}
|
||||
14
dozorova_alena_lab_4/NewTask/NewTask.csproj
Normal file
@@ -0,0 +1,14 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
32
dozorova_alena_lab_4/NewTask/Program.cs
Normal file
@@ -0,0 +1,32 @@
|
||||
using System.Text;
|
||||
using RabbitMQ.Client;
|
||||
|
||||
var factory = new ConnectionFactory { HostName = "localhost" };
|
||||
using var connection = factory.CreateConnection();
|
||||
using var channel = connection.CreateModel();
|
||||
|
||||
channel.QueueDeclare(queue: "task_queue",
|
||||
durable: true,
|
||||
exclusive: false,
|
||||
autoDelete: false,
|
||||
arguments: null);
|
||||
|
||||
var message = GetMessage(args);
|
||||
var body = Encoding.UTF8.GetBytes(message);
|
||||
|
||||
var properties = channel.CreateBasicProperties();
|
||||
properties.Persistent = true;
|
||||
|
||||
channel.BasicPublish(exchange: string.Empty,
|
||||
routingKey: "task_queue",
|
||||
basicProperties: properties,
|
||||
body: body);
|
||||
Console.WriteLine($" [x] Sent {message}");
|
||||
|
||||
Console.WriteLine(" Press [enter] to exit.");
|
||||
Console.ReadLine();
|
||||
|
||||
static string GetMessage(string[] args)
|
||||
{
|
||||
return ((args.Length > 0) ? string.Join(" ", args) : "Hello World!");
|
||||
}
|
||||
30
dozorova_alena_lab_4/Publisher/.dockerignore
Normal file
@@ -0,0 +1,30 @@
|
||||
**/.classpath
|
||||
**/.dockerignore
|
||||
**/.env
|
||||
**/.git
|
||||
**/.gitignore
|
||||
**/.project
|
||||
**/.settings
|
||||
**/.toolstarget
|
||||
**/.vs
|
||||
**/.vscode
|
||||
**/*.*proj.user
|
||||
**/*.dbmdl
|
||||
**/*.jfm
|
||||
**/azds.yaml
|
||||
**/bin
|
||||
**/charts
|
||||
**/docker-compose*
|
||||
**/Dockerfile*
|
||||
**/node_modules
|
||||
**/npm-debug.log
|
||||
**/obj
|
||||
**/secrets.dev.yaml
|
||||
**/values.dev.yaml
|
||||
LICENSE
|
||||
README.md
|
||||
!**/.gitignore
|
||||
!.git/HEAD
|
||||
!.git/config
|
||||
!.git/packed-refs
|
||||
!.git/refs/heads/**
|
||||
20
dozorova_alena_lab_4/Publisher/Dockerfile
Normal file
@@ -0,0 +1,20 @@
|
||||
FROM mcr.microsoft.com/dotnet/runtime:6.0 AS base
|
||||
WORKDIR /app
|
||||
|
||||
FROM mcr.microsoft.com/dotnet/sdk:6.0 AS build
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
WORKDIR /src
|
||||
COPY ["Publisher.csproj", "."]
|
||||
RUN dotnet restore "./Publisher.csproj"
|
||||
COPY . .
|
||||
WORKDIR "/src/."
|
||||
RUN dotnet build "./Publisher.csproj" -c $BUILD_CONFIGURATION -o /app/build
|
||||
|
||||
FROM build AS publish
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
RUN dotnet publish "./Publisher.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
|
||||
|
||||
FROM base AS final
|
||||
WORKDIR /app
|
||||
COPY --from=publish /app/publish .
|
||||
ENTRYPOINT ["dotnet", "Publisher.dll"]
|
||||
40
dozorova_alena_lab_4/Publisher/Program.cs
Normal file
@@ -0,0 +1,40 @@
|
||||
using Publisher;
|
||||
using System.Text;
|
||||
|
||||
var rabbitHost = Environment.GetEnvironmentVariable("RABBIT_HOST") ?? "localhost";
|
||||
var rabbitUsername = Environment.GetEnvironmentVariable("RABBIT_USERNAME") ?? "user";
|
||||
var rabbitPassword = Environment.GetEnvironmentVariable("RABBIT_PASSWORD") ?? "password";
|
||||
var rabbitExchange = Environment.GetEnvironmentVariable("RABBIT_EXCHANGE") ?? "ReportIn";
|
||||
|
||||
var sender = new Sender(rabbitHost, rabbitUsername, rabbitPassword);
|
||||
|
||||
sender.AddExcange(rabbitExchange);
|
||||
|
||||
var rnd = new Random();
|
||||
|
||||
while (true)
|
||||
{
|
||||
StringBuilder sb = new();
|
||||
|
||||
var type = rnd.Next();
|
||||
switch (type%2)
|
||||
{
|
||||
case 0:
|
||||
{
|
||||
sb.Append($"Был запрошен отчет о данных под номером {rnd.Next(1000)}");
|
||||
break;
|
||||
}
|
||||
case 1:
|
||||
{
|
||||
sb.Append($"Был запрошен отчет об ошибках под номером {rnd.Next(1000)}");
|
||||
break;
|
||||
}
|
||||
}
|
||||
|
||||
var text = sb.ToString();
|
||||
Console.WriteLine($"Было опубликовано сообщение: {text}");
|
||||
sender.PublishToExchange(rabbitExchange, text);
|
||||
|
||||
await Task.Delay(1000);
|
||||
}
|
||||
|
||||
@@ -0,0 +1,10 @@
|
||||
{
|
||||
"profiles": {
|
||||
"Publisher": {
|
||||
"commandName": "Project"
|
||||
},
|
||||
"Container (Dockerfile)": {
|
||||
"commandName": "Docker"
|
||||
}
|
||||
}
|
||||
}
|
||||
17
dozorova_alena_lab_4/Publisher/Publisher.csproj
Normal file
@@ -0,0 +1,17 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net6.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
|
||||
<DockerfileContext>.</DockerfileContext>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
9
dozorova_alena_lab_4/Publisher/Publisher.csproj.user
Normal file
@@ -0,0 +1,9 @@
|
||||
<?xml version="1.0" encoding="utf-8"?>
|
||||
<Project ToolsVersion="Current" xmlns="http://schemas.microsoft.com/developer/msbuild/2003">
|
||||
<PropertyGroup>
|
||||
<ActiveDebugProfile>Container (Dockerfile)</ActiveDebugProfile>
|
||||
</PropertyGroup>
|
||||
<PropertyGroup Condition="'$(Configuration)|$(Platform)'=='Debug|AnyCPU'">
|
||||
<DebuggerFlavor>ProjectDebugger</DebuggerFlavor>
|
||||
</PropertyGroup>
|
||||
</Project>
|
||||
25
dozorova_alena_lab_4/Publisher/Publisher.sln
Normal file
@@ -0,0 +1,25 @@
|
||||
|
||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
||||
# Visual Studio Version 17
|
||||
VisualStudioVersion = 17.10.35004.147
|
||||
MinimumVisualStudioVersion = 10.0.40219.1
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "Publisher", "Publisher.csproj", "{C23890FA-A4DD-4E5B-897F-37210C2F60CE}"
|
||||
EndProject
|
||||
Global
|
||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
||||
Debug|Any CPU = Debug|Any CPU
|
||||
Release|Any CPU = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
||||
{C23890FA-A4DD-4E5B-897F-37210C2F60CE}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{C23890FA-A4DD-4E5B-897F-37210C2F60CE}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{C23890FA-A4DD-4E5B-897F-37210C2F60CE}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{C23890FA-A4DD-4E5B-897F-37210C2F60CE}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(SolutionProperties) = preSolution
|
||||
HideSolutionNode = FALSE
|
||||
EndGlobalSection
|
||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
||||
SolutionGuid = {3BB20EB3-DE49-46CE-8C7A-D956E3DE90BC}
|
||||
EndGlobalSection
|
||||
EndGlobal
|
||||
69
dozorova_alena_lab_4/Publisher/Sender.cs
Normal file
@@ -0,0 +1,69 @@
|
||||
using RabbitMQ.Client;
|
||||
using System;
|
||||
using System.Collections.Generic;
|
||||
using System.Linq;
|
||||
using System.Text;
|
||||
using System.Threading.Tasks;
|
||||
|
||||
namespace Publisher
|
||||
{
|
||||
public class Sender : IDisposable
|
||||
{
|
||||
private readonly ConnectionFactory _connectionFactory;
|
||||
private readonly IConnection _connection;
|
||||
private readonly IModel _channel;
|
||||
|
||||
public HashSet<string> Exchanges { get; private set; } = new HashSet<string>();
|
||||
|
||||
public Sender(string brockerHost, string brockerUsername, string brockerPassword)
|
||||
{
|
||||
_connectionFactory = new ConnectionFactory() { HostName = brockerHost, UserName = brockerUsername, Password = brockerPassword };
|
||||
_connection = _connectionFactory.CreateConnection();
|
||||
_channel = _connection.CreateModel();
|
||||
}
|
||||
|
||||
public bool AddExcange(string exchange, string exchangeType = ExchangeType.Fanout)
|
||||
{
|
||||
try
|
||||
{
|
||||
_channel.ExchangeDeclare(exchange, exchangeType);
|
||||
Exchanges.Add(exchange);
|
||||
return true;
|
||||
}
|
||||
catch (Exception ex)
|
||||
{
|
||||
Console.WriteLine(ex.Message);
|
||||
}
|
||||
return false;
|
||||
}
|
||||
|
||||
public bool PublishToExchange(string exchange, string message)
|
||||
{
|
||||
try
|
||||
{
|
||||
if (!Exchanges.Contains(exchange))
|
||||
return false;
|
||||
|
||||
var messageBody = Encoding.UTF8.GetBytes(message);
|
||||
_channel.BasicPublish(exchange: exchange,
|
||||
routingKey: string.Empty,
|
||||
basicProperties: null,
|
||||
body: messageBody);
|
||||
return true;
|
||||
}
|
||||
catch (Exception ex)
|
||||
{
|
||||
Console.WriteLine(ex.Message);
|
||||
}
|
||||
return false;
|
||||
}
|
||||
|
||||
~Sender() => Dispose();
|
||||
|
||||
public void Dispose()
|
||||
{
|
||||
_connection.Dispose();
|
||||
_channel.Dispose();
|
||||
}
|
||||
}
|
||||
}
|
||||
39
dozorova_alena_lab_4/README.md
Normal file
@@ -0,0 +1,39 @@
|
||||
# Лабораторная работа 4
|
||||
В рамках данной работы были реализованы несколько проектов, работающих с RabbitMQ.
|
||||
## tutorial
|
||||
Для каждого урока были созданы консольные проекты
|
||||
### "Hello World!"
|
||||

|
||||
### Work Queues
|
||||

|
||||
### Publish/Subscribe
|
||||

|
||||
## Описание
|
||||
В качестве предметной области была выбрана система запросов отчета двух видов: отчета и ошибок.
|
||||
## Запуск
|
||||
Для запуска лабораторной работы необходимо иметь запущенный Docker на устройстве.
|
||||
Необходимо перейти в папку, где располагается данный файл. Далее открыть терминал и ввести команду:
|
||||
```
|
||||
docker compose up -d --build
|
||||
```
|
||||
Порты для RabbitMQ были 8081 (для UI) и 5672.
|
||||
## Анализ
|
||||
Первоначальный вариант запуска предполагает, что имеется всего 2 потребителя:
|
||||
1. Тратит на обработку сообщения 2-3 секунды
|
||||
2. Тратит на обработку сообщения крайне малое время
|
||||
Задержка при обработке понижает пропускную способность обработчика, что вызывает переполнение очереди. Это подтверждается скринами.
|
||||
<br/>
|
||||

|
||||
<br/>
|
||||

|
||||
<br/>
|
||||
Теперь запустим несколько обычных обработчиков. Очередь не переполнена постоянно, а периодически, соответственно обработчики вполне справляются с потоком сообщений и увеличение их количества позволит в принципе избавиться от переполнения
|
||||
<br/>
|
||||

|
||||
<br/>
|
||||

|
||||
|
||||
## Видеодемонстрация
|
||||
Демонстрация: (https://drive.google.com/file/d/16gJMGbMKSFZ_I5gCzuDekpAqUrhbpFRA/view?usp=sharing) Стоит обратить внимание на то, что настройки docker compose файла не гарантируют верный порядок подъема контейнеров, из-за чего некоторые контейнеры пришлось перезапустить.
|
||||
|
||||
|
||||
29
dozorova_alena_lab_4/Receive/Program.cs
Normal file
@@ -0,0 +1,29 @@
|
||||
using System.Text;
|
||||
using RabbitMQ.Client;
|
||||
using RabbitMQ.Client.Events;
|
||||
|
||||
var factory = new ConnectionFactory { HostName = "localhost" };
|
||||
using var connection = factory.CreateConnection();
|
||||
using var channel = connection.CreateModel();
|
||||
|
||||
channel.QueueDeclare(queue: "hello",
|
||||
durable: false,
|
||||
exclusive: false,
|
||||
autoDelete: false,
|
||||
arguments: null);
|
||||
|
||||
Console.WriteLine(" [*] Waiting for messages.");
|
||||
|
||||
var consumer = new EventingBasicConsumer(channel);
|
||||
consumer.Received += (model, ea) =>
|
||||
{
|
||||
var body = ea.Body.ToArray();
|
||||
var message = Encoding.UTF8.GetString(body);
|
||||
Console.WriteLine($" [x] Received {message}");
|
||||
};
|
||||
channel.BasicConsume(queue: "hello",
|
||||
autoAck: true,
|
||||
consumer: consumer);
|
||||
|
||||
Console.WriteLine(" Press [enter] to exit.");
|
||||
Console.ReadLine();
|
||||
14
dozorova_alena_lab_4/Receive/Receive.csproj
Normal file
@@ -0,0 +1,14 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
31
dozorova_alena_lab_4/ReceiveLogs/Program.cs
Normal file
@@ -0,0 +1,31 @@
|
||||
using System.Text;
|
||||
using RabbitMQ.Client;
|
||||
using RabbitMQ.Client.Events;
|
||||
|
||||
var factory = new ConnectionFactory { HostName = "localhost" };
|
||||
using var connection = factory.CreateConnection();
|
||||
using var channel = connection.CreateModel();
|
||||
|
||||
channel.ExchangeDeclare(exchange: "logs", type: ExchangeType.Fanout);
|
||||
|
||||
// declare a server-named queue
|
||||
var queueName = channel.QueueDeclare().QueueName;
|
||||
channel.QueueBind(queue: queueName,
|
||||
exchange: "logs",
|
||||
routingKey: string.Empty);
|
||||
|
||||
Console.WriteLine(" [*] Waiting for logs.");
|
||||
|
||||
var consumer = new EventingBasicConsumer(channel);
|
||||
consumer.Received += (model, ea) =>
|
||||
{
|
||||
byte[] body = ea.Body.ToArray();
|
||||
var message = Encoding.UTF8.GetString(body);
|
||||
Console.WriteLine($" [x] {message}");
|
||||
};
|
||||
channel.BasicConsume(queue: queueName,
|
||||
autoAck: true,
|
||||
consumer: consumer);
|
||||
|
||||
Console.WriteLine(" Press [enter] to exit.");
|
||||
Console.ReadLine();
|
||||
14
dozorova_alena_lab_4/ReceiveLogs/ReceiveLogs.csproj
Normal file
@@ -0,0 +1,14 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
24
dozorova_alena_lab_4/Send/Program.cs
Normal file
@@ -0,0 +1,24 @@
|
||||
using System.Text;
|
||||
using RabbitMQ.Client;
|
||||
|
||||
var factory = new ConnectionFactory { HostName = "localhost" };
|
||||
using var connection = factory.CreateConnection();
|
||||
using var channel = connection.CreateModel();
|
||||
|
||||
channel.QueueDeclare(queue: "hello",
|
||||
durable: false,
|
||||
exclusive: false,
|
||||
autoDelete: false,
|
||||
arguments: null);
|
||||
|
||||
const string message = "Hello World!";
|
||||
var body = Encoding.UTF8.GetBytes(message);
|
||||
|
||||
channel.BasicPublish(exchange: string.Empty,
|
||||
routingKey: "hello",
|
||||
basicProperties: null,
|
||||
body: body);
|
||||
Console.WriteLine($" [x] Sent {message}");
|
||||
|
||||
Console.WriteLine(" Press [enter] to exit.");
|
||||
Console.ReadLine();
|
||||
14
dozorova_alena_lab_4/Send/Send.csproj
Normal file
@@ -0,0 +1,14 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
39
dozorova_alena_lab_4/Worker/Program.cs
Normal file
@@ -0,0 +1,39 @@
|
||||
using System.Text;
|
||||
using RabbitMQ.Client;
|
||||
using RabbitMQ.Client.Events;
|
||||
|
||||
var factory = new ConnectionFactory { HostName = "localhost" };
|
||||
using var connection = factory.CreateConnection();
|
||||
using var channel = connection.CreateModel();
|
||||
|
||||
channel.QueueDeclare(queue: "task_queue",
|
||||
durable: true,
|
||||
exclusive: false,
|
||||
autoDelete: false,
|
||||
arguments: null);
|
||||
|
||||
channel.BasicQos(prefetchSize: 0, prefetchCount: 1, global: false);
|
||||
|
||||
Console.WriteLine(" [*] Waiting for messages.");
|
||||
|
||||
var consumer = new EventingBasicConsumer(channel);
|
||||
consumer.Received += (model, ea) =>
|
||||
{
|
||||
byte[] body = ea.Body.ToArray();
|
||||
var message = Encoding.UTF8.GetString(body);
|
||||
Console.WriteLine($" [x] Received {message}");
|
||||
|
||||
int dots = message.Split('.').Length - 1;
|
||||
Thread.Sleep(dots * 1000);
|
||||
|
||||
Console.WriteLine(" [x] Done");
|
||||
|
||||
// here channel could also be accessed as ((EventingBasicConsumer)sender).Model
|
||||
channel.BasicAck(deliveryTag: ea.DeliveryTag, multiple: false);
|
||||
};
|
||||
channel.BasicConsume(queue: "task_queue",
|
||||
autoAck: false,
|
||||
consumer: consumer);
|
||||
|
||||
Console.WriteLine(" Press [enter] to exit.");
|
||||
Console.ReadLine();
|
||||
14
dozorova_alena_lab_4/Worker/Worker.csproj
Normal file
@@ -0,0 +1,14 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="RabbitMQ.Client" Version="6.8.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
59
dozorova_alena_lab_4/docker-compose.yaml
Normal file
@@ -0,0 +1,59 @@
|
||||
services:
|
||||
rabbit:
|
||||
image: rabbitmq:3.10.7-management
|
||||
restart: always
|
||||
ports:
|
||||
- 5672:5672
|
||||
- 8081:15672
|
||||
environment:
|
||||
RABBITMQ_DEFAULT_USER: admin
|
||||
RABBITMQ_DEFAULT_PASS: admin
|
||||
|
||||
publisher:
|
||||
build: ./Publisher/
|
||||
restart: always
|
||||
depends_on:
|
||||
- rabbit
|
||||
environment:
|
||||
RABBIT_HOST: rabbit
|
||||
RABBIT_USERNAME: admin
|
||||
RABBIT_PASSWORD: admin
|
||||
RABBIT_EXCHANGE: 'ReportIn'
|
||||
|
||||
concumer1:
|
||||
build: ./ConsumerSimple/
|
||||
restart: always
|
||||
depends_on:
|
||||
- rabbit
|
||||
- publisher
|
||||
environment:
|
||||
RABBIT_HOST: rabbit
|
||||
RABBIT_USERNAME: admin
|
||||
RABBIT_PASSWORD: admin
|
||||
RABBIT_EXCHANGE: 'ReportIn'
|
||||
RABBIT_QUEUE: 'First'
|
||||
|
||||
concumer2:
|
||||
build: ./ConsumerSimple/
|
||||
restart: always
|
||||
depends_on:
|
||||
- rabbit
|
||||
- publisher
|
||||
environment:
|
||||
RABBIT_HOST: rabbit
|
||||
RABBIT_USERNAME: admin
|
||||
RABBIT_PASSWORD: admin
|
||||
RABBIT_EXCHANGE: 'ReportIn'
|
||||
RABBIT_QUEUE: 'Second'
|
||||
# concumer2:
|
||||
# build: ./ConsumerDelay/
|
||||
# restart: always
|
||||
# depends_on:
|
||||
# - rabbit
|
||||
# - publisher
|
||||
# environment:
|
||||
# RABBIT_HOST: rabbit
|
||||
# RABBIT_USERNAME: admin
|
||||
# RABBIT_PASSWORD: admin
|
||||
# RABBIT_EXCHANGE: 'ReportIn'
|
||||
# RABBIT_QUEUE: 'Second'
|
||||
BIN
dozorova_alena_lab_4/image-1.png
Normal file
|
After Width: | Height: | Size: 16 KiB |
BIN
dozorova_alena_lab_4/image-2.png
Normal file
|
After Width: | Height: | Size: 17 KiB |
BIN
dozorova_alena_lab_4/image-3.png
Normal file
|
After Width: | Height: | Size: 16 KiB |
BIN
dozorova_alena_lab_4/image-4.png
Normal file
|
After Width: | Height: | Size: 34 KiB |
BIN
dozorova_alena_lab_4/image-5.png
Normal file
|
After Width: | Height: | Size: 136 KiB |
BIN
dozorova_alena_lab_4/image-6.png
Normal file
|
After Width: | Height: | Size: 60 KiB |
BIN
dozorova_alena_lab_4/image.png
Normal file
|
After Width: | Height: | Size: 16 KiB |
23
emelyanov_artem_lab_2/README.md
Normal file
@@ -0,0 +1,23 @@
|
||||
# Распределённое приложение для поиска файлов и обработки чисел
|
||||
## Описаниe
|
||||
Данное распределённое приложение состоит из двух консольных Java-приложений, которые работают в контейнерах Docker. Приложения выполняют следующие задачи:
|
||||
|
||||
### file-finder:
|
||||
Ищет самый большой файл в директории /var/data и копирует его в /var/result/data.txt.
|
||||
### number-processor:
|
||||
Считывает числа из файла /var/result/data.txt и сохраняет произведение первого и последнего числа в файл /var/result/result.txt.
|
||||
|
||||
#### Приложения работают совместно через Docker Compose, используя общий том для передачи файлов между контейнерами.
|
||||
|
||||
### Как запустить
|
||||
1. #### Подготовка данных
|
||||
Убедитесь, что в директории data находятся файлы, которые вы хотите обработать. Это могут быть текстовые файлы с числами.
|
||||
|
||||
2. #### Сборка и запуск контейнеров
|
||||
Выполните команду для сборки и запуска контейнеров с помощью Docker Compose: docker-compose up --build
|
||||
|
||||
3. #### Результаты выполнения
|
||||
#### Приложение file-finder находит самый большой файл в директории /var/data (локально это монтируемая директория data/) и копирует его в файл /var/result/data.txt.
|
||||
#### Приложение number-processor читает файл /var/result/data.txt и сохраняет произведение первого и последнего числа в файл /var/result/result.txt.
|
||||
|
||||
#### Ссылка на видео https://drive.google.com/file/d/1u7nwZdUI4KHC4NzUAXdOABflYswokGwx/view
|
||||
31
emelyanov_artem_lab_2/app_1/.gitignore
vendored
Normal file
@@ -0,0 +1,31 @@
|
||||
### IntelliJ IDEA ###
|
||||
out/
|
||||
!**/src/main/**/out/
|
||||
!**/src/test/**/out/
|
||||
|
||||
### Eclipse ###
|
||||
.apt_generated
|
||||
.classpath
|
||||
.factorypath
|
||||
.project
|
||||
.settings
|
||||
.springBeans
|
||||
.sts4-cache
|
||||
bin/
|
||||
!**/src/main/**/bin/
|
||||
!**/src/test/**/bin/
|
||||
|
||||
### NetBeans ###
|
||||
/nbproject/private/
|
||||
/nbbuild/
|
||||
/dist/
|
||||
/nbdist/
|
||||
/.nb-gradle/
|
||||
|
||||
### VS Code ###
|
||||
.vscode/
|
||||
|
||||
### Mac OS ###
|
||||
.DS_Store
|
||||
/.idea/modules.xml
|
||||
/.idea/vcs.xml
|
||||
8
emelyanov_artem_lab_2/app_1/.idea/.gitignore
generated
vendored
Normal file
@@ -0,0 +1,8 @@
|
||||
# Default ignored files
|
||||
/shelf/
|
||||
/workspace.xml
|
||||
# Editor-based HTTP Client requests
|
||||
/httpRequests/
|
||||
# Datasource local storage ignored files
|
||||
/dataSources/
|
||||
/dataSources.local.xml
|
||||
17
emelyanov_artem_lab_2/app_1/Dockerfile
Normal file
@@ -0,0 +1,17 @@
|
||||
# Используем базовый образ с установленной JDK
|
||||
FROM openjdk:17-jdk-slim
|
||||
|
||||
# Создаем директорию для исходных файлов
|
||||
RUN mkdir /var/data
|
||||
|
||||
# Создаем директорию для приложения
|
||||
WORKDIR /app
|
||||
|
||||
#Копируем исходные файлы приложения внутрь контейнера
|
||||
COPY src /app/src
|
||||
|
||||
#Компилируем код
|
||||
RUN javac /app/src/Main.java
|
||||
|
||||
# Определяем команду для запуска приложения
|
||||
CMD ["java", "-cp", "/app/src", "Main"]
|
||||
64
emelyanov_artem_lab_2/app_1/src/Main.java
Normal file
@@ -0,0 +1,64 @@
|
||||
import java.io.File;
|
||||
import java.io.IOException;
|
||||
import java.nio.file.Files;
|
||||
import java.nio.file.StandardCopyOption;
|
||||
|
||||
public class Main {
|
||||
|
||||
public static void main(String[] args) {
|
||||
|
||||
/*
|
||||
Ищет в каталоге /var/data самый большой по объёму файл и перекладывает его в /var/result/data.txt.
|
||||
*/
|
||||
|
||||
File sourceDir = new File("/var/data");
|
||||
File targetFile = new File("/var/result/data.txt");
|
||||
|
||||
// Проверяем, что sourceDir существует и является директорией
|
||||
if (!sourceDir.exists() || !sourceDir.isDirectory()) {
|
||||
System.out.println("Каталог " + sourceDir + " не существует или не является директорией.");
|
||||
return;
|
||||
}
|
||||
|
||||
File[] files = sourceDir.listFiles();
|
||||
if (files == null || files.length == 0) {
|
||||
System.out.println("Каталог " + sourceDir + " пуст.");
|
||||
return;
|
||||
}
|
||||
|
||||
long maxFileSize = -1L;
|
||||
File maxFile = null;
|
||||
|
||||
// Находим файл с максимальным размером
|
||||
for (File item : files) {
|
||||
if (item.isFile() && item.length() > maxFileSize) {
|
||||
maxFileSize = item.length();
|
||||
maxFile = item;
|
||||
}
|
||||
}
|
||||
|
||||
if (maxFile != null) {
|
||||
// Проверяем, существует ли конечная директория, если нет — создаем её
|
||||
File targetDir = targetFile.getParentFile();
|
||||
if (!targetDir.exists()) {
|
||||
boolean dirCreated = targetDir.mkdirs();
|
||||
if (dirCreated) {
|
||||
System.out.println("Директория " + targetDir + " была успешно создана.");
|
||||
} else {
|
||||
System.out.println("Не удалось создать директорию " + targetDir);
|
||||
return;
|
||||
}
|
||||
}
|
||||
|
||||
try {
|
||||
// Копируем файл
|
||||
Files.copy(maxFile.toPath(), targetFile.toPath(), StandardCopyOption.REPLACE_EXISTING);
|
||||
System.out.println("Самый большой файл: " + maxFile.getName() + " был скопирован в /var/result/data.txt");
|
||||
} catch (IOException e) {
|
||||
System.out.println("Ошибка копирования файла: " + e.getMessage());
|
||||
}
|
||||
} else {
|
||||
System.out.println("Файлы для копирования не найдены.");
|
||||
}
|
||||
}
|
||||
}
|
||||
30
emelyanov_artem_lab_2/app_2/.gitignore
vendored
Normal file
@@ -0,0 +1,30 @@
|
||||
### IntelliJ IDEA ###
|
||||
out/
|
||||
!**/src/main/**/out/
|
||||
!**/src/test/**/out/
|
||||
|
||||
### Eclipse ###
|
||||
.apt_generated
|
||||
.classpath
|
||||
.factorypath
|
||||
.project
|
||||
.settings
|
||||
.springBeans
|
||||
.sts4-cache
|
||||
bin/
|
||||
!**/src/main/**/bin/
|
||||
!**/src/test/**/bin/
|
||||
|
||||
### NetBeans ###
|
||||
/nbproject/private/
|
||||
/nbbuild/
|
||||
/dist/
|
||||
/nbdist/
|
||||
/.nb-gradle/
|
||||
|
||||
### VS Code ###
|
||||
.vscode/
|
||||
|
||||
### Mac OS ###
|
||||
.DS_Store
|
||||
/.idea/misc.xml
|
||||
10
emelyanov_artem_lab_2/app_2/.idea/.gitignore
generated
vendored
Normal file
@@ -0,0 +1,10 @@
|
||||
# Default ignored files
|
||||
/shelf/
|
||||
/workspace.xml
|
||||
# Editor-based HTTP Client requests
|
||||
/httpRequests/
|
||||
# Datasource local storage ignored files
|
||||
/dataSources/
|
||||
/dataSources.local.xml
|
||||
/modules.xml
|
||||
/vcs.xml
|
||||
17
emelyanov_artem_lab_2/app_2/Dockerfile
Normal file
@@ -0,0 +1,17 @@
|
||||
# Используем базовый образ с установленной JDK
|
||||
FROM openjdk:17-jdk-slim
|
||||
|
||||
# Создаем директорию для исходных файлов
|
||||
RUN mkdir /var/data
|
||||
|
||||
# Создаем директорию для приложения
|
||||
WORKDIR /app
|
||||
|
||||
#Копируем исходные файлы приложения внутрь контейнера
|
||||
COPY src /app/src
|
||||
|
||||
#Компилируем код
|
||||
RUN javac /app/src/Main.java
|
||||
|
||||
# Определяем команду для запуска приложения
|
||||
CMD ["java", "-cp", "/app/src", "Main"]
|
||||
46
emelyanov_artem_lab_2/app_2/src/Main.java
Normal file
@@ -0,0 +1,46 @@
|
||||
import java.io.File;
|
||||
import java.io.FileNotFoundException;
|
||||
import java.io.PrintWriter;
|
||||
import java.util.Scanner;
|
||||
|
||||
public class Main {
|
||||
|
||||
// Сохраняет произведение первого и последнего числа из файла /var/result/data.txt в /var/result/result.txt.
|
||||
public static void main(String[] args) {
|
||||
|
||||
File sourceFile = new File("/var/result/data.txt");
|
||||
File targetFile = new File("/var/result/result.txt");
|
||||
|
||||
int firstNumber = 0;
|
||||
int lastNumber = 0;
|
||||
boolean isFirstNumber = true;
|
||||
|
||||
try (Scanner scanner = new Scanner(sourceFile)) {
|
||||
// Считываем числа
|
||||
while (scanner.hasNextInt()) {
|
||||
int currentNumber = scanner.nextInt();
|
||||
|
||||
if (isFirstNumber) {
|
||||
firstNumber = currentNumber; // Сохраняем первое число
|
||||
isFirstNumber = false;
|
||||
}
|
||||
|
||||
lastNumber = currentNumber; // Последнее число обновляется на каждом шаге
|
||||
}
|
||||
} catch (FileNotFoundException ex) {
|
||||
System.out.println("Файл не найден: " + ex.getMessage());
|
||||
return; // Выходим, если файл не найден
|
||||
}
|
||||
|
||||
// Рассчитываем произведение первого и последнего числа
|
||||
int result = firstNumber * lastNumber;
|
||||
|
||||
// Сохраняем результат в файл
|
||||
try (PrintWriter writer = new PrintWriter(targetFile)) {
|
||||
writer.println(result);
|
||||
System.out.println("Произведение первого и последнего числа: " + result);
|
||||
} catch (FileNotFoundException ex) {
|
||||
System.out.println("Ошибка записи в файл: " + ex.getMessage());
|
||||
}
|
||||
}
|
||||
}
|
||||
10
emelyanov_artem_lab_2/data/1.txt
Normal file
@@ -0,0 +1,10 @@
|
||||
2
|
||||
32
|
||||
1
|
||||
2
|
||||
3
|
||||
54
|
||||
64
|
||||
4
|
||||
3
|
||||
3
|
||||
12
emelyanov_artem_lab_2/data/2.txt
Normal file
@@ -0,0 +1,12 @@
|
||||
12
|
||||
4
|
||||
12
|
||||
3
|
||||
21
|
||||
3
|
||||
12
|
||||
1
|
||||
3
|
||||
32
|
||||
2
|
||||
5
|
||||
9
emelyanov_artem_lab_2/data/3.txt
Normal file
@@ -0,0 +1,9 @@
|
||||
12
|
||||
2
|
||||
1
|
||||
2
|
||||
4
|
||||
3
|
||||
1
|
||||
2
|
||||
3
|
||||
21
emelyanov_artem_lab_2/docker-compose.yml
Normal file
@@ -0,0 +1,21 @@
|
||||
version: '3'
|
||||
services:
|
||||
file-finder:
|
||||
build:
|
||||
context: ./app_1 # Путь к первому приложению
|
||||
dockerfile: Dockerfile
|
||||
volumes:
|
||||
- C:/Users/Admin/Desktop/УлГТУ/Распределенные вычисления и приложения/DAS_2024_1/emelyanov_artem_lab_2/data:/var/data # Монтируем директорию с файлами
|
||||
- shared-result:/var/result
|
||||
|
||||
number-processor:
|
||||
build:
|
||||
context: ./app_2 # Путь ко второму приложению
|
||||
dockerfile: Dockerfile
|
||||
depends_on:
|
||||
- file-finder
|
||||
volumes:
|
||||
- shared-result:/var/result
|
||||
|
||||
volumes:
|
||||
shared-result: # Объявляем общий том
|
||||
30
kuzarin_maxim_lab_2/.dockerignore
Normal file
@@ -0,0 +1,30 @@
|
||||
**/.classpath
|
||||
**/.dockerignore
|
||||
**/.env
|
||||
**/.git
|
||||
**/.gitignore
|
||||
**/.project
|
||||
**/.settings
|
||||
**/.toolstarget
|
||||
**/.vs
|
||||
**/.vscode
|
||||
**/*.*proj.user
|
||||
**/*.dbmdl
|
||||
**/*.jfm
|
||||
**/azds.yaml
|
||||
**/bin
|
||||
**/charts
|
||||
**/docker-compose*
|
||||
**/Dockerfile*
|
||||
**/node_modules
|
||||
**/npm-debug.log
|
||||
**/obj
|
||||
**/secrets.dev.yaml
|
||||
**/values.dev.yaml
|
||||
LICENSE
|
||||
README.md
|
||||
!**/.gitignore
|
||||
!.git/HEAD
|
||||
!.git/config
|
||||
!.git/packed-refs
|
||||
!.git/refs/heads/**
|
||||
490
kuzarin_maxim_lab_2/.gitignore
vendored
Normal file
@@ -0,0 +1,490 @@
|
||||
## Ignore Visual Studio temporary files, build results, and
|
||||
## files generated by popular Visual Studio add-ons.
|
||||
##
|
||||
## Get latest from `dotnet new gitignore`
|
||||
|
||||
# dotenv files
|
||||
.env
|
||||
|
||||
# User-specific files
|
||||
*.rsuser
|
||||
*.suo
|
||||
*.user
|
||||
*.userosscache
|
||||
*.sln.docstates
|
||||
|
||||
# User-specific files (MonoDevelop/Xamarin Studio)
|
||||
*.userprefs
|
||||
|
||||
# Mono auto generated files
|
||||
mono_crash.*
|
||||
|
||||
# Build results
|
||||
[Dd]ebug/
|
||||
[Dd]ebugPublic/
|
||||
[Rr]elease/
|
||||
[Rr]eleases/
|
||||
x64/
|
||||
x86/
|
||||
[Ww][Ii][Nn]32/
|
||||
[Aa][Rr][Mm]/
|
||||
[Aa][Rr][Mm]64/
|
||||
bld/
|
||||
[Bb]in/
|
||||
[Oo]bj/
|
||||
[Ll]og/
|
||||
[Ll]ogs/
|
||||
|
||||
# Visual Studio 2015/2017 cache/options directory
|
||||
.vs/
|
||||
# Uncomment if you have tasks that create the project's static files in wwwroot
|
||||
#wwwroot/
|
||||
|
||||
# Visual Studio 2017 auto generated files
|
||||
Generated\ Files/
|
||||
|
||||
# MSTest test Results
|
||||
[Tt]est[Rr]esult*/
|
||||
[Bb]uild[Ll]og.*
|
||||
|
||||
# NUnit
|
||||
*.VisualState.xml
|
||||
TestResult.xml
|
||||
nunit-*.xml
|
||||
|
||||
# Build Results of an ATL Project
|
||||
[Dd]ebugPS/
|
||||
[Rr]eleasePS/
|
||||
dlldata.c
|
||||
|
||||
# Benchmark Results
|
||||
BenchmarkDotNet.Artifacts/
|
||||
|
||||
# .NET
|
||||
project.lock.json
|
||||
project.fragment.lock.json
|
||||
artifacts/
|
||||
|
||||
# Tye
|
||||
.tye/
|
||||
|
||||
# ASP.NET Scaffolding
|
||||
ScaffoldingReadMe.txt
|
||||
|
||||
# StyleCop
|
||||
StyleCopReport.xml
|
||||
|
||||
# Files built by Visual Studio
|
||||
*_i.c
|
||||
*_p.c
|
||||
*_h.h
|
||||
*.ilk
|
||||
*.meta
|
||||
*.obj
|
||||
*.iobj
|
||||
*.pch
|
||||
*.pdb
|
||||
*.ipdb
|
||||
*.pgc
|
||||
*.pgd
|
||||
*.rsp
|
||||
*.sbr
|
||||
*.tlb
|
||||
*.tli
|
||||
*.tlh
|
||||
*.tmp
|
||||
*.tmp_proj
|
||||
*_wpftmp.csproj
|
||||
*.log
|
||||
*.tlog
|
||||
*.vspscc
|
||||
*.vssscc
|
||||
.builds
|
||||
*.pidb
|
||||
*.svclog
|
||||
*.scc
|
||||
|
||||
# Chutzpah Test files
|
||||
_Chutzpah*
|
||||
|
||||
# Visual C++ cache files
|
||||
ipch/
|
||||
*.aps
|
||||
*.ncb
|
||||
*.opendb
|
||||
*.opensdf
|
||||
*.sdf
|
||||
*.cachefile
|
||||
*.VC.db
|
||||
*.VC.VC.opendb
|
||||
|
||||
# Visual Studio profiler
|
||||
*.psess
|
||||
*.vsp
|
||||
*.vspx
|
||||
*.sap
|
||||
|
||||
# Visual Studio Trace Files
|
||||
*.e2e
|
||||
|
||||
# TFS 2012 Local Workspace
|
||||
$tf/
|
||||
|
||||
# Guidance Automation Toolkit
|
||||
*.gpState
|
||||
|
||||
# ReSharper is a .NET coding add-in
|
||||
_ReSharper*/
|
||||
*.[Rr]e[Ss]harper
|
||||
*.DotSettings.user
|
||||
|
||||
# TeamCity is a build add-in
|
||||
_TeamCity*
|
||||
|
||||
# DotCover is a Code Coverage Tool
|
||||
*.dotCover
|
||||
|
||||
# AxoCover is a Code Coverage Tool
|
||||
.axoCover/*
|
||||
!.axoCover/settings.json
|
||||
|
||||
# Coverlet is a free, cross platform Code Coverage Tool
|
||||
coverage*.json
|
||||
coverage*.xml
|
||||
coverage*.info
|
||||
|
||||
# Visual Studio code coverage results
|
||||
*.coverage
|
||||
*.coveragexml
|
||||
|
||||
# NCrunch
|
||||
_NCrunch_*
|
||||
.*crunch*.local.xml
|
||||
nCrunchTemp_*
|
||||
|
||||
# MightyMoose
|
||||
*.mm.*
|
||||
AutoTest.Net/
|
||||
|
||||
# Web workbench (sass)
|
||||
.sass-cache/
|
||||
|
||||
# Installshield output folder
|
||||
[Ee]xpress/
|
||||
|
||||
# DocProject is a documentation generator add-in
|
||||
DocProject/buildhelp/
|
||||
DocProject/Help/*.HxT
|
||||
DocProject/Help/*.HxC
|
||||
DocProject/Help/*.hhc
|
||||
DocProject/Help/*.hhk
|
||||
DocProject/Help/*.hhp
|
||||
DocProject/Help/Html2
|
||||
DocProject/Help/html
|
||||
|
||||
# Click-Once directory
|
||||
publish/
|
||||
|
||||
# Publish Web Output
|
||||
*.[Pp]ublish.xml
|
||||
*.azurePubxml
|
||||
# Note: Comment the next line if you want to checkin your web deploy settings,
|
||||
# but database connection strings (with potential passwords) will be unencrypted
|
||||
*.pubxml
|
||||
*.publishproj
|
||||
|
||||
# Microsoft Azure Web App publish settings. Comment the next line if you want to
|
||||
# checkin your Azure Web App publish settings, but sensitive information contained
|
||||
# in these scripts will be unencrypted
|
||||
PublishScripts/
|
||||
|
||||
# NuGet Packages
|
||||
*.nupkg
|
||||
# NuGet Symbol Packages
|
||||
*.snupkg
|
||||
# The packages folder can be ignored because of Package Restore
|
||||
**/[Pp]ackages/*
|
||||
# except build/, which is used as an MSBuild target.
|
||||
!**/[Pp]ackages/build/
|
||||
# Uncomment if necessary however generally it will be regenerated when needed
|
||||
#!**/[Pp]ackages/repositories.config
|
||||
# NuGet v3's project.json files produces more ignorable files
|
||||
*.nuget.props
|
||||
*.nuget.targets
|
||||
|
||||
# Microsoft Azure Build Output
|
||||
csx/
|
||||
*.build.csdef
|
||||
|
||||
# Microsoft Azure Emulator
|
||||
ecf/
|
||||
rcf/
|
||||
|
||||
# Windows Store app package directories and files
|
||||
AppPackages/
|
||||
BundleArtifacts/
|
||||
Package.StoreAssociation.xml
|
||||
_pkginfo.txt
|
||||
*.appx
|
||||
*.appxbundle
|
||||
*.appxupload
|
||||
|
||||
# Visual Studio cache files
|
||||
# files ending in .cache can be ignored
|
||||
*.[Cc]ache
|
||||
# but keep track of directories ending in .cache
|
||||
!?*.[Cc]ache/
|
||||
|
||||
# Others
|
||||
ClientBin/
|
||||
~$*
|
||||
*~
|
||||
*.dbmdl
|
||||
*.dbproj.schemaview
|
||||
*.jfm
|
||||
*.pfx
|
||||
*.publishsettings
|
||||
orleans.codegen.cs
|
||||
|
||||
# Including strong name files can present a security risk
|
||||
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
|
||||
#*.snk
|
||||
|
||||
# Since there are multiple workflows, uncomment next line to ignore bower_components
|
||||
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
|
||||
#bower_components/
|
||||
|
||||
# RIA/Silverlight projects
|
||||
Generated_Code/
|
||||
|
||||
# Backup & report files from converting an old project file
|
||||
# to a newer Visual Studio version. Backup files are not needed,
|
||||
# because we have git ;-)
|
||||
_UpgradeReport_Files/
|
||||
Backup*/
|
||||
UpgradeLog*.XML
|
||||
UpgradeLog*.htm
|
||||
ServiceFabricBackup/
|
||||
*.rptproj.bak
|
||||
|
||||
# SQL Server files
|
||||
*.mdf
|
||||
*.ldf
|
||||
*.ndf
|
||||
|
||||
# Business Intelligence projects
|
||||
*.rdl.data
|
||||
*.bim.layout
|
||||
*.bim_*.settings
|
||||
*.rptproj.rsuser
|
||||
*- [Bb]ackup.rdl
|
||||
*- [Bb]ackup ([0-9]).rdl
|
||||
*- [Bb]ackup ([0-9][0-9]).rdl
|
||||
|
||||
# Microsoft Fakes
|
||||
FakesAssemblies/
|
||||
|
||||
# GhostDoc plugin setting file
|
||||
*.GhostDoc.xml
|
||||
|
||||
# Node.js Tools for Visual Studio
|
||||
.ntvs_analysis.dat
|
||||
node_modules/
|
||||
|
||||
# Visual Studio 6 build log
|
||||
*.plg
|
||||
|
||||
# Visual Studio 6 workspace options file
|
||||
*.opt
|
||||
|
||||
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
|
||||
*.vbw
|
||||
|
||||
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
|
||||
*.vbp
|
||||
|
||||
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
|
||||
*.dsw
|
||||
*.dsp
|
||||
|
||||
# Visual Studio 6 technical files
|
||||
*.ncb
|
||||
*.aps
|
||||
|
||||
# Visual Studio LightSwitch build output
|
||||
**/*.HTMLClient/GeneratedArtifacts
|
||||
**/*.DesktopClient/GeneratedArtifacts
|
||||
**/*.DesktopClient/ModelManifest.xml
|
||||
**/*.Server/GeneratedArtifacts
|
||||
**/*.Server/ModelManifest.xml
|
||||
_Pvt_Extensions
|
||||
|
||||
# Paket dependency manager
|
||||
.paket/paket.exe
|
||||
paket-files/
|
||||
|
||||
# FAKE - F# Make
|
||||
.fake/
|
||||
|
||||
# CodeRush personal settings
|
||||
.cr/personal
|
||||
|
||||
# Python Tools for Visual Studio (PTVS)
|
||||
__pycache__/
|
||||
*.pyc
|
||||
|
||||
# Cake - Uncomment if you are using it
|
||||
# tools/**
|
||||
# !tools/packages.config
|
||||
|
||||
# Tabs Studio
|
||||
*.tss
|
||||
|
||||
# Telerik's JustMock configuration file
|
||||
*.jmconfig
|
||||
|
||||
# BizTalk build output
|
||||
*.btp.cs
|
||||
*.btm.cs
|
||||
*.odx.cs
|
||||
*.xsd.cs
|
||||
|
||||
# OpenCover UI analysis results
|
||||
OpenCover/
|
||||
|
||||
# Azure Stream Analytics local run output
|
||||
ASALocalRun/
|
||||
|
||||
# MSBuild Binary and Structured Log
|
||||
*.binlog
|
||||
|
||||
# NVidia Nsight GPU debugger configuration file
|
||||
*.nvuser
|
||||
|
||||
# MFractors (Xamarin productivity tool) working folder
|
||||
.mfractor/
|
||||
|
||||
# Local History for Visual Studio
|
||||
.localhistory/
|
||||
|
||||
# Visual Studio History (VSHistory) files
|
||||
.vshistory/
|
||||
|
||||
# BeatPulse healthcheck temp database
|
||||
healthchecksdb
|
||||
|
||||
# Backup folder for Package Reference Convert tool in Visual Studio 2017
|
||||
MigrationBackup/
|
||||
|
||||
# Ionide (cross platform F# VS Code tools) working folder
|
||||
.ionide/
|
||||
|
||||
# Fody - auto-generated XML schema
|
||||
FodyWeavers.xsd
|
||||
|
||||
# VS Code files for those working on multiple tools
|
||||
.vscode/*
|
||||
!.vscode/settings.json
|
||||
!.vscode/tasks.json
|
||||
!.vscode/launch.json
|
||||
!.vscode/extensions.json
|
||||
*.code-workspace
|
||||
|
||||
# Local History for Visual Studio Code
|
||||
.history/
|
||||
|
||||
# Windows Installer files from build outputs
|
||||
*.cab
|
||||
*.msi
|
||||
*.msix
|
||||
*.msm
|
||||
*.msp
|
||||
|
||||
# JetBrains Rider
|
||||
*.sln.iml
|
||||
.idea
|
||||
|
||||
##
|
||||
## Visual studio for Mac
|
||||
##
|
||||
|
||||
|
||||
# globs
|
||||
Makefile.in
|
||||
*.userprefs
|
||||
*.usertasks
|
||||
config.make
|
||||
config.status
|
||||
aclocal.m4
|
||||
install-sh
|
||||
autom4te.cache/
|
||||
*.tar.gz
|
||||
tarballs/
|
||||
test-results/
|
||||
|
||||
# Mac bundle stuff
|
||||
*.dmg
|
||||
*.app
|
||||
|
||||
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
|
||||
# General
|
||||
.DS_Store
|
||||
.AppleDouble
|
||||
.LSOverride
|
||||
|
||||
# Icon must end with two \r
|
||||
Icon
|
||||
|
||||
|
||||
# Thumbnails
|
||||
._*
|
||||
|
||||
# Files that might appear in the root of a volume
|
||||
.DocumentRevisions-V100
|
||||
.fseventsd
|
||||
.Spotlight-V100
|
||||
.TemporaryItems
|
||||
.Trashes
|
||||
.VolumeIcon.icns
|
||||
.com.apple.timemachine.donotpresent
|
||||
|
||||
# Directories potentially created on remote AFP share
|
||||
.AppleDB
|
||||
.AppleDesktop
|
||||
Network Trash Folder
|
||||
Temporary Items
|
||||
.apdisk
|
||||
|
||||
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
|
||||
# Windows thumbnail cache files
|
||||
Thumbs.db
|
||||
ehthumbs.db
|
||||
ehthumbs_vista.db
|
||||
|
||||
# Dump file
|
||||
*.stackdump
|
||||
|
||||
# Folder config file
|
||||
[Dd]esktop.ini
|
||||
|
||||
# Recycle Bin used on file shares
|
||||
$RECYCLE.BIN/
|
||||
|
||||
# Windows Installer files
|
||||
*.cab
|
||||
*.msi
|
||||
*.msix
|
||||
*.msm
|
||||
*.msp
|
||||
|
||||
# Windows shortcuts
|
||||
*.lnk
|
||||
|
||||
# Vim temporary swap files
|
||||
*.swp
|
||||
|
||||
# Delete volumes
|
||||
/volumes
|
||||
|
||||
# Delete .vs folder
|
||||
/.vs/*
|
||||
37
kuzarin_maxim_lab_2/DAaS_FileConnections.sln
Normal file
@@ -0,0 +1,37 @@
|
||||
|
||||
Microsoft Visual Studio Solution File, Format Version 12.00
|
||||
# Visual Studio Version 17
|
||||
VisualStudioVersion = 17.10.34916.146
|
||||
MinimumVisualStudioVersion = 10.0.40219.1
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "DAaS_FileConnections", "DAaS_FileConnections\DAaS_FileConnections.csproj", "{23B07B06-0AB4-42F8-9753-264639E1D38B}"
|
||||
EndProject
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "FirstApplication", "FirstApplication\FirstApplication.csproj", "{FBC01B2E-C887-42D1-A899-3C4781EF67E9}"
|
||||
EndProject
|
||||
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "SecondApplication", "SecondApplication\SecondApplication.csproj", "{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}"
|
||||
EndProject
|
||||
Global
|
||||
GlobalSection(SolutionConfigurationPlatforms) = preSolution
|
||||
Debug|Any CPU = Debug|Any CPU
|
||||
Release|Any CPU = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(ProjectConfigurationPlatforms) = postSolution
|
||||
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
|
||||
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Debug|Any CPU.Build.0 = Debug|Any CPU
|
||||
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Release|Any CPU.ActiveCfg = Release|Any CPU
|
||||
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Release|Any CPU.Build.0 = Release|Any CPU
|
||||
EndGlobalSection
|
||||
GlobalSection(SolutionProperties) = preSolution
|
||||
HideSolutionNode = FALSE
|
||||
EndGlobalSection
|
||||
GlobalSection(ExtensibilityGlobals) = postSolution
|
||||
SolutionGuid = {E290B7D1-0F4E-406E-ADF3-8F543C0FA96E}
|
||||
EndGlobalSection
|
||||
EndGlobal
|
||||
@@ -0,0 +1,14 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="PIHelperSh.RandomEx" Version="1.0.0" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
29
kuzarin_maxim_lab_2/DAaS_FileConnections/Program.cs
Normal file
@@ -0,0 +1,29 @@
|
||||
|
||||
using PIHelperSh.RandomEx.Extentions;
|
||||
|
||||
string inputPath = Environment.GetEnvironmentVariable("INPUT_PATH") ?? ".\\input1";
|
||||
string outputPath = Environment.GetEnvironmentVariable("OUTPUT_PATH") ?? ".\\output1";
|
||||
|
||||
if(!Directory.Exists(inputPath))
|
||||
Directory.CreateDirectory(inputPath);
|
||||
|
||||
if(!Directory.Exists(outputPath))
|
||||
Directory.CreateDirectory(outputPath);
|
||||
|
||||
var rnd = new Random();
|
||||
|
||||
for (int i = 0; i < rnd.Next(1000); i++)
|
||||
{
|
||||
using var writer = new StreamWriter(Path.Combine(inputPath, $"{rnd.NextString(10)}.txt"), false);
|
||||
|
||||
for (int j = 0; j < rnd.Next(1000); j++)
|
||||
|
||||
{
|
||||
writer.WriteLine(rnd.Next());
|
||||
}
|
||||
writer.Close();
|
||||
}
|
||||
|
||||
|
||||
|
||||
|
||||
35
kuzarin_maxim_lab_2/FirstApplication/Dockerfile
Normal file
@@ -0,0 +1,35 @@
|
||||
# Это базовый образ для сборки.
|
||||
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
|
||||
# Указываем рабочий каталог для следующих комманд
|
||||
WORKDIR /app
|
||||
|
||||
# Проект нужно сначала собрать, поэтому берём sdk
|
||||
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
|
||||
# Это пременная. Будем собирать в режиме Relece.
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
WORKDIR /src
|
||||
# Копируем из папки хоста в контейнер
|
||||
COPY ["FirstApplication.csproj", "FirstApplication/"]
|
||||
# Выполняем комманду для загрузки всех нужных зависимостей
|
||||
RUN dotnet restore "FirstApplication/FirstApplication.csproj"
|
||||
# Назначаем новую базовую папку
|
||||
WORKDIR "/src/FirstApplication"
|
||||
# Копируем всё в папку для сборки
|
||||
COPY . .
|
||||
# Выполняем сборку проекта
|
||||
RUN dotnet build "FirstApplication.csproj" -c $BUILD_CONFIGURATION -o /app/build
|
||||
|
||||
# В этот этап попадает всё, что было в publish
|
||||
FROM build AS publish
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
# Публикуем всё в папку /app/publish
|
||||
RUN dotnet publish "FirstApplication.csproj" -c $BUILD_CONFIGURATION -o /app/publish --self-contained false --no-restore
|
||||
|
||||
# Берём тот образ, что определили в первой строке
|
||||
FROM base AS final
|
||||
# Указываем рабочую директорию
|
||||
WORKDIR /app
|
||||
# Из опубликованного блока берём то, что опубликовано и закидывае в /app
|
||||
COPY --from=publish /app/publish .
|
||||
# Указываем комманду запуска приложения (когда контейнер запустится, то начнёт с этого)
|
||||
ENTRYPOINT ["dotnet", "FirstApplication.dll"]
|
||||
15
kuzarin_maxim_lab_2/FirstApplication/FirstApplication.csproj
Normal file
@@ -0,0 +1,15 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
17
kuzarin_maxim_lab_2/FirstApplication/Program.cs
Normal file
@@ -0,0 +1,17 @@
|
||||
Console.WriteLine("Запущен первый сервис");
|
||||
string inputPath = Environment.GetEnvironmentVariable("INPUT_PATH") ?? "./input1";
|
||||
string outputPath = Environment.GetEnvironmentVariable("OUTPUT_PATH") ?? "./output1";
|
||||
|
||||
if (!Directory.Exists(inputPath))
|
||||
Directory.CreateDirectory(inputPath);
|
||||
|
||||
if (!Directory.Exists(outputPath))
|
||||
Directory.CreateDirectory(outputPath);
|
||||
|
||||
var file = new DirectoryInfo(inputPath).EnumerateFiles().Aggregate((x, y) => x.Length > y.Length ? x : y);
|
||||
|
||||
var outputFilePath = Path.Combine(outputPath, "data.txt");
|
||||
|
||||
if(File.Exists(outputFilePath))
|
||||
File.Delete(outputFilePath);
|
||||
File.Move(file.FullName, Path.Combine(outputPath, "data.txt"));
|
||||
@@ -0,0 +1,10 @@
|
||||
{
|
||||
"profiles": {
|
||||
"FirstApplication": {
|
||||
"commandName": "Project"
|
||||
},
|
||||
"Container (Dockerfile)": {
|
||||
"commandName": "Docker"
|
||||
}
|
||||
}
|
||||
}
|
||||
25
kuzarin_maxim_lab_2/README.md
Normal file
@@ -0,0 +1,25 @@
|
||||
# Лабораторная работа 2
|
||||
Данная работа посвящена теме создания контейнеров из исходного кода посредства dockerfile, а так же взаимодействию сервисов через общие папки
|
||||
## Описание
|
||||
Был варана следующая комбинация вариантов:
|
||||
- Первое приложение - 0-ой
|
||||
- Второе приложение - 1-ый
|
||||
В результате, после запуска система изучит папку ./volumes/input, найдёт самый большой файл, а затем найдёт в нём самое большое число, выведя в директорию ./volumes/output файл с его квадратом.
|
||||
Буфер же, по сути не имеет физического отображения на папку хоста.
|
||||
## Запуск
|
||||
Для запуска лабораторной работы необходимо иметь запущенный движок Docker на устройстве.
|
||||
Необходимо перейти в папку, где располагается данный файл. Далее открыть терминал и ввести команду:
|
||||
```
|
||||
docker compose up --build
|
||||
```
|
||||
В данном случае флаг `--build` заставит систему в любом случае собрать образы из исходников (даже если они уже есть).
|
||||
В результате, после сборки оба сервиса запустятся и выведут в консоль логи примерно следующего содержания:
|
||||
## Описание dockerfile файла
|
||||
Подробное описание дано в виде комментариев в самом файле первого сервиса. Так как для разработки использовался .net 8.0, команд довольно много. При этом, так как второй сервис написан на той же платформе, особенных отличий двух docekrfile-ов нет(кроме пути
|
||||
## Описание compose файла
|
||||
Благодаря директиве `depends_on` в compose файле второй сервис будет ждать, пока не будет поднят первый сервис, и только потом начнёт подниматься.
|
||||
Директива `build` позволяет использовать в compose не уже готовый образ, а тот, что будет собран непосредственно в момент запуска(если он уже существует и нет флага силовой сборки, будет использоваться существующий образ)
|
||||
Область volumes позволяет создать буферную область. Эту папку можно монтировать как результирующую для первого сервиса и исходную - для второго
|
||||
## Видеодемонстрация
|
||||
Был записан видеоролик, демонстрирующий процесс запуска и работы сервисов. Он расположен по [адресу](https://drive.google.com/file/d/1sACiKx3_HRApa89a7LZFAZV05o7POhq6/view?usp=sharing)
|
||||
|
||||
20
kuzarin_maxim_lab_2/SecondApplication/Dockerfile
Normal file
@@ -0,0 +1,20 @@
|
||||
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
|
||||
WORKDIR /app
|
||||
|
||||
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
WORKDIR /src
|
||||
COPY ["SecondApplication.csproj", "SecondApplication/"]
|
||||
RUN dotnet restore "./SecondApplication/SecondApplication.csproj"
|
||||
WORKDIR "/src/SecondApplication"
|
||||
COPY . .
|
||||
RUN dotnet build "SecondApplication.csproj" -c $BUILD_CONFIGURATION -o /app/build
|
||||
|
||||
FROM build AS publish
|
||||
ARG BUILD_CONFIGURATION=Release
|
||||
RUN dotnet publish "SecondApplication.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
|
||||
|
||||
FROM base AS final
|
||||
WORKDIR /app
|
||||
COPY --from=publish /app/publish .
|
||||
ENTRYPOINT ["dotnet", "SecondApplication.dll"]
|
||||
31
kuzarin_maxim_lab_2/SecondApplication/Program.cs
Normal file
@@ -0,0 +1,31 @@
|
||||
Console.WriteLine("Запущен второй сервис");
|
||||
string inputPath = Environment.GetEnvironmentVariable("INPUT_PATH") ?? ".\\input2";
|
||||
string outputPath = Environment.GetEnvironmentVariable("OUTPUT_PATH") ?? ".\\output2";
|
||||
|
||||
if (!Directory.Exists(outputPath))
|
||||
Directory.CreateDirectory(outputPath);
|
||||
|
||||
var inputFilePath = Path.Combine(inputPath, "data.txt");
|
||||
var outputFilePath = Path.Combine(outputPath, "result.txt");
|
||||
|
||||
if (!File.Exists(inputFilePath))
|
||||
{
|
||||
Console.WriteLine($"Нет исходного файла {inputFilePath}");
|
||||
return;
|
||||
}
|
||||
|
||||
using var reader = new StreamReader(inputFilePath);
|
||||
|
||||
long maxNumber = 0;
|
||||
|
||||
while (true)
|
||||
{
|
||||
var str = reader.ReadLine();
|
||||
if (str == null) break;
|
||||
|
||||
if (long.TryParse(str, out var number) && number > maxNumber)
|
||||
maxNumber = number;
|
||||
}
|
||||
|
||||
File.WriteAllText(outputFilePath, (maxNumber * maxNumber).ToString());
|
||||
Console.WriteLine($"Результат выполнения: {maxNumber * maxNumber}");
|
||||
@@ -0,0 +1,10 @@
|
||||
{
|
||||
"profiles": {
|
||||
"SecondApplication": {
|
||||
"commandName": "Project"
|
||||
},
|
||||
"Container (Dockerfile)": {
|
||||
"commandName": "Docker"
|
||||
}
|
||||
}
|
||||
}
|
||||
@@ -0,0 +1,15 @@
|
||||
<Project Sdk="Microsoft.NET.Sdk">
|
||||
|
||||
<PropertyGroup>
|
||||
<OutputType>Exe</OutputType>
|
||||
<TargetFramework>net8.0</TargetFramework>
|
||||
<ImplicitUsings>enable</ImplicitUsings>
|
||||
<Nullable>enable</Nullable>
|
||||
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
|
||||
</PropertyGroup>
|
||||
|
||||
<ItemGroup>
|
||||
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
|
||||
</ItemGroup>
|
||||
|
||||
</Project>
|
||||
22
kuzarin_maxim_lab_2/docker-compose.yml
Normal file
@@ -0,0 +1,22 @@
|
||||
services:
|
||||
first:
|
||||
build: ./FirstApplication/
|
||||
volumes:
|
||||
- ./volumes/input:/var/data
|
||||
- buffer:/var/result
|
||||
environment:
|
||||
INPUT_PATH: "/var/data"
|
||||
OUTPUT_PATH: "/var/result"
|
||||
|
||||
second:
|
||||
build: ./SecondApplication/
|
||||
depends_on:
|
||||
- first
|
||||
volumes:
|
||||
- buffer:/var/data
|
||||
- ./volumes/output:/var/result
|
||||
environment:
|
||||
INPUT_PATH: "/var/data"
|
||||
OUTPUT_PATH: "/var/result"
|
||||
volumes:
|
||||
buffer:
|
||||
140
mochalov_danila_lab_1/LocalSettings.php
Normal file
@@ -0,0 +1,140 @@
|
||||
<?php
|
||||
# This file was automatically generated by the MediaWiki 1.42.1
|
||||
# installer. If you make manual changes, please keep track in case you
|
||||
# need to recreate them later.
|
||||
#
|
||||
# See includes/MainConfigSchema.php for all configurable settings
|
||||
# and their default values, but don't forget to make changes in _this_
|
||||
# file, not there.
|
||||
#
|
||||
# Further documentation for configuration settings may be found at:
|
||||
# https://www.mediawiki.org/wiki/Manual:Configuration_settings
|
||||
|
||||
# Protect against web entry
|
||||
if ( !defined( 'MEDIAWIKI' ) ) {
|
||||
exit;
|
||||
}
|
||||
|
||||
|
||||
|
||||
|
||||
## Uncomment this to disable output compression
|
||||
# $wgDisableOutputCompression = true;
|
||||
|
||||
$wgSitename = 'wiki';
|
||||
$wgMetaNamespace = 'Wiki';
|
||||
|
||||
## The URL base path to the directory containing the wiki;
|
||||
## defaults for all runtime URL paths are based off of this.
|
||||
## For more information on customizing the URLs
|
||||
## (like /w/index.php/Page_title to /wiki/Page_title) please see:
|
||||
## https://www.mediawiki.org/wiki/Manual:Short_URL
|
||||
$wgScriptPath = '';
|
||||
|
||||
## The protocol and server name to use in fully-qualified URLs
|
||||
$wgServer = 'http://localhost:8080';
|
||||
|
||||
## The URL path to static resources (images, scripts, etc.)
|
||||
$wgResourceBasePath = $wgScriptPath;
|
||||
|
||||
## The URL paths to the logo. Make sure you change this from the default,
|
||||
## or else you'll overwrite your logo when you upgrade!
|
||||
$wgLogos = [
|
||||
'1x' => "$wgResourceBasePath/resources/assets/change-your-logo.svg",
|
||||
'icon' => "$wgResourceBasePath/resources/assets/change-your-logo-icon.svg",
|
||||
];
|
||||
|
||||
## UPO means: this is also a user preference option
|
||||
|
||||
$wgEnableEmail = true;
|
||||
$wgEnableUserEmail = true; # UPO
|
||||
|
||||
$wgEmergencyContact = '';
|
||||
$wgPasswordSender = '';
|
||||
|
||||
$wgEnotifUserTalk = false; # UPO
|
||||
$wgEnotifWatchlist = false; # UPO
|
||||
$wgEmailAuthentication = true;
|
||||
|
||||
## Database settings
|
||||
$wgDBtype = 'mysql';
|
||||
$wgDBserver = 'mariadb';
|
||||
$wgDBname = 'my_wiki';
|
||||
$wgDBuser = 'wikiuser';
|
||||
$wgDBpassword = 'password';
|
||||
|
||||
# MySQL specific settings
|
||||
$wgDBprefix = "";
|
||||
$wgDBssl = false;
|
||||
|
||||
# MySQL table options to use during installation or update
|
||||
$wgDBTableOptions = "ENGINE=InnoDB, DEFAULT CHARSET=binary";
|
||||
|
||||
# Shared database table
|
||||
# This has no effect unless $wgSharedDB is also set.
|
||||
$wgSharedTables[] = "actor";
|
||||
|
||||
## Shared memory settings
|
||||
$wgMainCacheType = CACHE_NONE;
|
||||
$wgMemCachedServers = [];
|
||||
|
||||
## To enable image uploads, make sure the 'images' directory
|
||||
## is writable, then set this to true:
|
||||
$wgEnableUploads = false;
|
||||
$wgUseImageMagick = true;
|
||||
$wgImageMagickConvertCommand = '/usr/bin/convert';
|
||||
|
||||
# InstantCommons allows wiki to use images from https://commons.wikimedia.org
|
||||
$wgUseInstantCommons = false;
|
||||
|
||||
# Periodically send a pingback to https://www.mediawiki.org/ with basic data
|
||||
# about this MediaWiki instance. The Wikimedia Foundation shares this data
|
||||
# with MediaWiki developers to help guide future development efforts.
|
||||
$wgPingback = false;
|
||||
|
||||
# Site language code, should be one of the list in ./includes/languages/data/Names.php
|
||||
$wgLanguageCode = 'ru';
|
||||
|
||||
# Time zone
|
||||
$wgLocaltimezone = 'UTC';
|
||||
|
||||
## Set $wgCacheDirectory to a writable directory on the web server
|
||||
## to make your wiki go slightly faster. The directory should not
|
||||
## be publicly accessible from the web.
|
||||
#$wgCacheDirectory = "$IP/cache";
|
||||
|
||||
$wgSecretKey = '35e36bd38120ddaa8ba6e353d81951b7b85c7be00e0ee915c4bb4bfa44477368';
|
||||
|
||||
# Changing this will log out all existing sessions.
|
||||
$wgAuthenticationTokenVersion = '1';
|
||||
|
||||
# Site upgrade key. Must be set to a string (default provided) to turn on the
|
||||
# web installer while LocalSettings.php is in place
|
||||
$wgUpgradeKey = '698fd18eabeec460';
|
||||
|
||||
## For attaching licensing metadata to pages, and displaying an
|
||||
## appropriate copyright notice / icon. GNU Free Documentation
|
||||
## License and Creative Commons licenses are supported so far.
|
||||
$wgRightsPage = ""; # Set to the title of a wiki page that describes your license/copyright
|
||||
$wgRightsUrl = '';
|
||||
$wgRightsText = '';
|
||||
$wgRightsIcon = "";
|
||||
|
||||
# Path to the GNU diff3 utility. Used for conflict resolution.
|
||||
$wgDiff3 = '/usr/bin/diff3';
|
||||
|
||||
## Default skin: you can change the default skin. Use the internal symbolic
|
||||
## names, e.g. 'vector' or 'monobook':
|
||||
$wgDefaultSkin = 'vector-2022';
|
||||
|
||||
# Enabled skins.
|
||||
# The following skins were automatically enabled:
|
||||
wfLoadSkin( 'MinervaNeue' );
|
||||
wfLoadSkin( 'MonoBook' );
|
||||
wfLoadSkin( 'Timeless' );
|
||||
wfLoadSkin( 'Vector' );
|
||||
|
||||
|
||||
# End of automatically generated settings.
|
||||
# Add more configuration options below.
|
||||
|
||||
40
mochalov_danila_lab_1/README.md
Normal file
@@ -0,0 +1,40 @@
|
||||
# Лабораторная работа №1
|
||||
|
||||
## Описание
|
||||
Для выполнения данной лабораторной работы были развернуты следующие сервисы:
|
||||
- mediawiki - Вики-движок;
|
||||
- mariadb - БД для сервиса mediawiki;
|
||||
- drupal - Система управления контентом;
|
||||
- postgres - БД для сервиса drupal.
|
||||
|
||||
В файле docker-compose прописаны инструкции для запуска четырех контейнеров с сервисами.
|
||||
Для пояснения инструкций для каждой строки добавлены комментарии с объяснением.
|
||||
|
||||
## Запуск
|
||||
Для запуска необходимо перейти в папку с файлом docker-compose и ввести команду в терминале
|
||||
```
|
||||
docker compose up -d
|
||||
```
|
||||
Флаг -d позволяет запустить контейнеры в фоновом режиме, оставляя доступ к консоли.
|
||||
|
||||
Для полноценного первого запуска сервиса drupal необходимо открыть его веб-клиент и следовать инструкциям.
|
||||
Для полноценного первого запуска сервиса mediawiki необходимо открыть его веб-клиент после запуска и следовать инструкциям по настройке.
|
||||
После получения файла LocalSettings.php необходимо:
|
||||
- расскоментировать строчку ./LocalSettings.php:/var/www/html/LocalSettings.php в docker-compose
|
||||
- перенести файл в директорию с файлом docker-compose и перезапустить контейнер.
|
||||
|
||||
Для проверки контейнеров после запуска можно использовать команду
|
||||
```
|
||||
docker ps -a
|
||||
```
|
||||
В случае если все контейнеры успешно запущены мы увидим в их в консоли со статусом Up
|
||||
```
|
||||
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
|
||||
e86a2cd3b071 mediawiki "docker-php-entrypoi…" 42 seconds ago Up 39 seconds 0.0.0.0:8080->80/tcp mochalov_danila_lab_1-mediawiki-1
|
||||
260ca4b612fe postgres:16 "docker-entrypoint.s…" 42 seconds ago Up 41 seconds 5432/tcp mochalov_danila_lab_1-postgres-1
|
||||
1fbd6c3922e2 mariadb "docker-entrypoint.s…" 42 seconds ago Up 41 seconds 3306/tcp mochalov_danila_lab_1-mariadb-1
|
||||
a7d4e194a30a drupal:10-apache "docker-php-entrypoi…" 42 seconds ago Up 40 seconds 0.0.0.0:3000->80/tcp mochalov_danila_lab_1-drupal-1
|
||||
```
|
||||
|
||||
## Демонстрация работы
|
||||
Для демонстрации работоспособности записан ролик. Доступ по [ссылке] (https://drive.google.com/file/d/1GkJSwaoSUjggKQIRJlNQtJ12QEDtium6/view?usp=sharing)
|
||||
52
mochalov_danila_lab_1/docker-compose.yml
Normal file
@@ -0,0 +1,52 @@
|
||||
services:
|
||||
mediawiki: # Сервис MediaWiki
|
||||
image: mediawiki # Образ MediaWiki из Docker Hub
|
||||
restart: always # Автоматический перезапуск контейнера при сбое
|
||||
ports:
|
||||
- 8080:80 # Проброс порта 80 из контейнера на порт 8080 хоста
|
||||
depends_on:
|
||||
- mariadb # Запуск MediaWiki только после запуска MariaDB
|
||||
volumes:
|
||||
- images:/var/www/html/images # Монтирование volume для хранения данных
|
||||
- ./LocalSettings.php:/var/www/html/LocalSettings.php # Монтирование локального файла настроек (ЗАКОММЕНТИРОВАТЬ ДО НАСТРОЙКИ)
|
||||
|
||||
mariadb: # Сервис MariaDB
|
||||
image: mariadb # Образ MariaDB из Docker Hub
|
||||
restart: always # Автоматический перезапуск контейнера при сбое
|
||||
environment: # Переменные окружения для настройки базы данных
|
||||
MYSQL_DATABASE: my_wiki # Название базы данных
|
||||
MYSQL_USER: wikiuser # Имя пользователя для доступа к базе данных
|
||||
MYSQL_PASSWORD: password # Пароль для пользователя
|
||||
MYSQL_RANDOM_ROOT_PASSWORD: 'yes' # Случайный пароль для пользователя root
|
||||
volumes:
|
||||
- db_maria:/var/lib/mysql # Монтирование volume для хранения данных базы
|
||||
|
||||
drupal: # Сервис Drupal
|
||||
image: drupal:10-apache # Образ Drupal
|
||||
ports:
|
||||
- 3000:80 # Проброс порта 80 из контейнера на порт 3000 хоста
|
||||
volumes: # Монтирование volumes для хранения локальных файлов Drupal
|
||||
- drupal-modules:/var/www/html/modules
|
||||
- drupal-profiles:/var/www/html/profiles
|
||||
- drupal-themes:/var/www/html/themes
|
||||
- drupal-sites:/var/www/html/sites
|
||||
restart: always # Автоматический перезапуск контейнера при сбое
|
||||
depends_on:
|
||||
- postgres # Запуск Drupal только после запуска Postgres
|
||||
|
||||
postgres: # Сервис PostgreSQL
|
||||
image: postgres:16 # Образ PostgreSQL
|
||||
environment:
|
||||
POSTGRES_PASSWORD: password # Пароль для пользователя postgres
|
||||
restart: always # Автоматический перезапуск контейнера при сбое
|
||||
volumes:
|
||||
- db_postgres:/var/lib/postgresql # Монтирование volume для хранения данных базы
|
||||
|
||||
volumes:
|
||||
images: # Volume для хранения изображений MediaWiki
|
||||
db_maria: # Volume для хранения данных MariaDB
|
||||
db_postgres: # Volume для хранения данных Postgres
|
||||
drupal-modules: # Volumes для хранения локальных данных Drupal
|
||||
drupal-profiles: # Volumes для хранения локальных данных Drupal
|
||||
drupal-themes: # Volumes для хранения локальных данных Drupal
|
||||
drupal-sites: # Volumes для хранения локальных данных Drupal
|
||||
42
polevoy_sergey_lab_1/docker-compose.yml
Normal file
@@ -0,0 +1,42 @@
|
||||
services: # Начало объявления сервисов
|
||||
gitea: # Указывается название сервиса
|
||||
image: gitea/gitea:1.22.2 # Указание названия образа (и/или его версии), который будет взят для создания контейнера
|
||||
restart: always # Указывается политика перезапуска, в данном случае всегда перезапускать контейнер, если он остановился
|
||||
environment: # Указываются переменные среды
|
||||
- GITEA__database__DB_TYPE=postgres # Тип базы данных
|
||||
- GITEA__database__HOST=postgres:5432 # Хост бд. Название сервиса это а-ля доменное имя и внутри сети разрешается в ip нужного контейнера
|
||||
- GITEA__database__NAME=gitea # Название базы данных
|
||||
- GITEA__database__USER=superuser # Пользователь базы данных
|
||||
- GITEA__database__PASSWD=superpassword # Пароль пользователя базы данных
|
||||
ports: # Перечисляются пробросы портов на хостовую машину. Слева порт хостовой машины, справа порт контейнера
|
||||
- "3000:3000" # Web интерфейс
|
||||
- "222:22" # SSH
|
||||
volumes: # Указываются монтированные тома, папки, файлы. В данном случае в папку /data монтируется объявленный ниже том gitea
|
||||
- gitea:/data
|
||||
depends_on: # Указывается зависимость запуска контейнера от другого сервиса, в данном случае запускается только после запуска сервиса бд
|
||||
- postgres
|
||||
# Дальше всё по аналогии, различаются лишь названия, переменные окружения, образы, порты и тома
|
||||
postgres:
|
||||
image: postgres:14
|
||||
restart: always
|
||||
environment:
|
||||
- POSTGRES_USER=superuser
|
||||
- POSTGRES_PASSWORD=superpassword
|
||||
- POSTGRES_DB=gitea
|
||||
ports:
|
||||
- "5432:5432"
|
||||
volumes:
|
||||
- postgres:/var/lib/postgresql/data
|
||||
|
||||
rabbitmq:
|
||||
image: rabbitmq:3-management
|
||||
environment:
|
||||
RABBITMQ_DEFAULT_USER: superuser
|
||||
RABBITMQ_DEFAULT_PASS: superpassword
|
||||
ports:
|
||||
- "5672:5672"
|
||||
- "15672:15672"
|
||||
|
||||
volumes: # Перечисление томов, которые можно использовать как в одном, так и в нескольких сервисах
|
||||
postgres:
|
||||
gitea:
|
||||
25
polevoy_sergey_lab_1/readme.md
Normal file
@@ -0,0 +1,25 @@
|
||||
# Лабораторная работа №1
|
||||
В рамках данной лабораторной работы будут развёрнуты следующие сервисы:
|
||||
1. **Gitea** - система управления версиями
|
||||
2. **Postgres** - реляционая база данных
|
||||
3. **Rabbitmq** - брокер сообщений
|
||||
|
||||
Инструкции к запуску контейнеров и пояснения к ним находятся в файле ```docker-compose.yml```
|
||||
|
||||
## Порядок запуска
|
||||
#### 1. Установить docker или убедиться, что он установлен
|
||||
#### 2. Перейти в папку с файлом ```docker-compose.yml```
|
||||
#### 3. Выполнить команду в терминале: ```docker-compose up --build --remove-orphans```
|
||||
|
||||
Проверить успешность запуска можно командой ```docker ps -a```. Если всё прошло успешно, то в терминале будет написано:
|
||||
```
|
||||
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
|
||||
1a794331b32b gitea/gitea:1.22.2 "/usr/bin/entrypoint…" 20 seconds ago Up 18 seconds 0.0.0.0:3000->3000/tcp, 0.0.0.0:222->22/tcp polevoy_sergey_lab_1-gitea-1
|
||||
b5fe33c61c1d rabbitmq:3-management "docker-entrypoint.s…" 20 seconds ago Up 19 seconds 4369/tcp, 5671/tcp, 0.0.0.0:5672->5672/tcp, 15671/tcp, 15691-15692/tcp, 25672/tcp, 0.0.0.0:15672->15672/tcp rabbitmq
|
||||
3d2db73d15c5 postgres:14 "docker-entrypoint.s…" 20 seconds ago Up 19 seconds 0.0.0.0:5432->5432/tcp polevoy_sergey_lab_1-postgres-1
|
||||
```
|
||||
|
||||
Работать со всеми перечисленными сервисами можно сразу после запуска за исключением **gitea**. После первого запуска необходимо зайти на сервис, выполнить первоначальную настройку и создать суперпользователя.
|
||||
|
||||
## Видеодемонстрация работы
|
||||
### Видео доступно по [ссылке](https://disk.yandex.ru/i/3Out4mUV6NEJuA)
|
||||
4
tukaeva_alfiya_lab_1/.env
Normal file
@@ -0,0 +1,4 @@
|
||||
DB_HOST = wp_database
|
||||
DB_USER = wordpress
|
||||
DB_PASSWORD = wordpress
|
||||
DB_NAME = wordpress
|
||||
13
tukaeva_alfiya_lab_1/Dockerfile
Normal file
@@ -0,0 +1,13 @@
|
||||
FROM wordpress:latest
|
||||
|
||||
# Установка WP-CLI
|
||||
RUN apt-get update && apt-get install -y less \
|
||||
&& curl -O https://raw.githubusercontent.com/wp-cli/builds/gh-pages/phar/wp-cli.phar \
|
||||
&& chmod +x wp-cli.phar \
|
||||
&& mv wp-cli.phar /usr/local/bin/wp
|
||||
|
||||
# Копируем скрипт entrypoint
|
||||
COPY entrypoint.sh /usr/local/bin/entrypoint.sh
|
||||
RUN chmod +x /usr/local/bin/entrypoint.sh
|
||||
|
||||
ENTRYPOINT ["/usr/local/bin/entrypoint.sh"]
|
||||
137
tukaeva_alfiya_lab_1/README.md
Normal file
@@ -0,0 +1,137 @@
|
||||
# Лабораторная работа №1 - Знакомство с docker и docker-compose
|
||||
|
||||
## Задание
|
||||
|
||||
Нужно развернуть 3 сервиса в контейнерах docker через docker-compose.
|
||||
|
||||
Необходимые требования:
|
||||
|
||||
* Несколько контейнеров.
|
||||
* Хотя бы один volume.
|
||||
* Хотя бы один порт, проброшенный на хост.
|
||||
* Разворачивание системы должно пройти до конца.
|
||||
|
||||
## Запуск ЛР:
|
||||
|
||||
Введем в терминале команду:
|
||||
```
|
||||
docker-compose up -d
|
||||
```
|
||||
## Использованные сервисы:
|
||||
|
||||
1. ```db``` - база данные MySQL
|
||||
|
||||
2. ```redmine``` - Система учёта багов, т.е. баг-трекер.
|
||||
|
||||
3. ```mediawiki``` - движок вики
|
||||
|
||||
4. ```wordpress``` - платформа для управления контентом
|
||||
|
||||
## Описание программы:
|
||||
|
||||
Развернутые сервисы:
|
||||
|
||||
### wordpress
|
||||
|
||||
```
|
||||
wordpress: # Определение сервиса WordPress
|
||||
image: wordpress:latest # Используемый образ WordPress последней версии
|
||||
containername: wp_app # Имя контейнера
|
||||
restart: always
|
||||
ports: # Настройка портов
|
||||
- "8000:80"
|
||||
environment: # Переменные окружения
|
||||
WORDPRESSDBHOST: ${DBHOST}
|
||||
WORDPRESSDBUSER: ${DBUSER}
|
||||
WORDPRESSDBPASSWORD: ${DBPASSWORD}
|
||||
WORDPRESSDBNAME: ${DBNAME}
|
||||
WORDPRESSADMINUSER: admin
|
||||
WORDPRESSADMINPASSWORD: adminpassword
|
||||
WORDPRESSADMINEMAIL: admin@example.com
|
||||
volumes: # Настройка томов
|
||||
- wordpress_data:/var/www/html
|
||||
dependson: # Зависимости
|
||||
- db_wordpress # Зависит от сервиса MySQL
|
||||
|
||||
```
|
||||
Эта строка отвечает за образ сброки:
|
||||
```
|
||||
image: wordpress:latest
|
||||
```
|
||||
Задание имени контейнера:
|
||||
```
|
||||
containername: wp_app
|
||||
```
|
||||
Проброс портов:
|
||||
```
|
||||
ports:
|
||||
- 8000:80
|
||||
```
|
||||
Тома для хранения данных:
|
||||
```
|
||||
volumes:
|
||||
- wordpress_data:/var/www/html
|
||||
|
||||
```
|
||||
Переменные окружения
|
||||
```
|
||||
environment:
|
||||
WORDPRESSDBHOST: ${DBHOST}
|
||||
WORDPRESSDBUSER: ${DBUSER}
|
||||
WORDPRESSDBPASSWORD: ${DBPASSWORD}
|
||||
WORDPRESSDBNAME: ${DBNAME}
|
||||
WORDPRESSADMINUSER: admin
|
||||
WORDPRESSADMINPASSWORD: adminpassword
|
||||
WORDPRESSADMINEMAIL: admin@example.com
|
||||
|
||||
```
|
||||
Зависимости
|
||||
|
||||
```
|
||||
dependson:
|
||||
- db_wordpress
|
||||
|
||||
```
|
||||
Аналогично со другими сервисами:
|
||||
|
||||
### mediawiki
|
||||
|
||||
```
|
||||
mediawiki: # Определение сервиса MediaWiki
|
||||
image: mediawiki:1.35 # Используемый образ MediaWiki версии 1.35
|
||||
ports: # Настройка портов
|
||||
- "8080:80"
|
||||
containername: mediawiki # Имя контейнера
|
||||
volumes: # Настройка томов
|
||||
- mediawiki_data:/var/www/html/images mediawiki: # Определение сервиса MediaWiki
|
||||
image: mediawiki:1.35 # Используемый образ MediaWiki версии 1.35
|
||||
ports: # Настройка портов
|
||||
- "8080:80"
|
||||
containername: mediawiki # Имя контейнера
|
||||
volumes: # Настройка томов
|
||||
- mediawiki_data:/var/www/html/images
|
||||
|
||||
```
|
||||
|
||||
### redmine
|
||||
|
||||
```
|
||||
|
||||
redmine: # Определение сервиса Redmine
|
||||
image: redmine:latest # Используемый образ Redmine последней версии
|
||||
containername: redmine # Имя контейнера
|
||||
ports: # Настройка портов
|
||||
- "3000:3000"
|
||||
volumes: # Настройка томов
|
||||
- redmine_data:/usr/src/redmine/files
|
||||
|
||||
```
|
||||
|
||||
# Скрины работы программы:
|
||||
|
||||
Панель консоли
|
||||

|
||||
|
||||
# Видео
|
||||
|
||||
https://vk.com/video230744264_456239102
|
||||
53
tukaeva_alfiya_lab_1/docker-compose.yml
Normal file
@@ -0,0 +1,53 @@
|
||||
services:
|
||||
mediawiki: # Определение сервиса MediaWiki
|
||||
image: mediawiki:1.35 # Используемый образ MediaWiki версии 1.35
|
||||
ports: # Настройка портов
|
||||
- "8080:80"
|
||||
containername: mediawiki # Имя контейнера
|
||||
volumes: # Настройка томов
|
||||
- mediawiki_data:/var/www/html/images
|
||||
|
||||
db_wordpress: # Определение сервиса MySQL для WordPress
|
||||
image: mysql:5.7 # Используемый образ MySQL версии 5.7
|
||||
containername: wp_database # Имя контейнера
|
||||
environment: # Переменные окружения
|
||||
MYSQLROOTPASSWORD: rootsecret
|
||||
MYSQLDATABASE: ${DBNAME}
|
||||
MYSQLUSER: ${DBUSER}
|
||||
MYSQLPASSWORD: ${DBPASSWORD}
|
||||
volumes: # Настройка томов
|
||||
- db_wordpress_data:/var/lib/mysql
|
||||
|
||||
wordpress: # Определение сервиса WordPress
|
||||
image: wordpress:latest # Используемый образ WordPress последней версии
|
||||
containername: wp_app # Имя контейнера
|
||||
restart: always
|
||||
ports: # Настройка портов
|
||||
- "8000:80"
|
||||
user: www-data
|
||||
environment: # Переменные окружения
|
||||
WORDPRESSDBHOST: ${DBHOST}
|
||||
WORDPRESSDBUSER: ${DBUSER}
|
||||
WORDPRESSDBPASSWORD: ${DBPASSWORD}
|
||||
WORDPRESSDBNAME: ${DBNAME}
|
||||
WORDPRESSADMINUSER: admin
|
||||
WORDPRESSADMINPASSWORD: adminpassword
|
||||
WORDPRESSADMINEMAIL: admin@example.com
|
||||
volumes: # Настройка томов
|
||||
- wordpress_data:/var/www/html
|
||||
dependson: # Зависимости
|
||||
- db_wordpress # Зависит от сервиса MySQL
|
||||
|
||||
redmine: # Определение сервиса Redmine
|
||||
image: redmine:latest # Используемый образ Redmine последней версии
|
||||
containername: redmine # Имя контейнера
|
||||
ports: # Настройка портов
|
||||
- "3000:3000"
|
||||
volumes: # Настройка томов
|
||||
- redmine_data:/usr/src/redmine/files
|
||||
|
||||
volumes: # Определение томов
|
||||
mediawiki_data: # ТОМ для MediaWiki
|
||||
wordpress_data: # ТОМ для WordPress
|
||||
db_wordpress_data: # ТОМ для MySQL
|
||||
redmine_data: # ТОМ для Redmine
|
||||
15
tukaeva_alfiya_lab_1/entrypoint.sh
Normal file
@@ -0,0 +1,15 @@
|
||||
#!/bin/bash
|
||||
set -e
|
||||
|
||||
# Ожидание готовности базы данных
|
||||
until wp db check; do
|
||||
echo "Ожидание базы данных..."
|
||||
sleep 5
|
||||
done
|
||||
|
||||
# Установка WordPress
|
||||
if ! wp core is-installed; then
|
||||
wp core install --url="http://localhost:8000" --title="Библиотека" --admin_user="admin" --admin_password="admin_password" --admin_email="admin@example.com" --skip-email
|
||||
fi
|
||||
|
||||
exec apache2-foreground
|
||||
BIN
tukaeva_alfiya_lab_1/lab_1.png
Normal file
|
After Width: | Height: | Size: 43 KiB |