Compare commits

..

4 Commits

Author SHA1 Message Date
JulYakJul
a6a247cabf delete trash 2024-10-08 17:02:29 +04:00
JulYakJul
f5194bf885 Create README.md 2024-10-08 16:56:07 +04:00
JulYakJul
12cd98aa7d yakovleva_yulia_lab_3 is ready 2024-10-08 16:30:55 +04:00
JulYakJul
3db4a0fcd4 Admin 2024-10-07 11:28:34 +04:00
108 changed files with 1365 additions and 3952 deletions

View File

@@ -1,2 +0,0 @@
ollama
./ollama

View File

@@ -1,33 +0,0 @@
# Распределенные вычисления и приложения Л1
## _Автор Базунов Андрей Игревич ПИбд-42_
В качестве сервисов были выбраны:
- 1.Ollama (_Сервис для использования LLMs моделей_)
- 2.Open Web Ui (_Сервис для удобного общения с моделью из сервиса Ollama_)
- 3.Gitea (_Гит сервис_)
# Docker
>Перед исполнением вполняем установку docker и проверяем версию
```sh
docker-compose --version
```
>Далее производим настройку файла docker-compose.yaml и запускаем контейнер
```sh
docker-compose up -d
```
>Для завершения работы контейнера используем команду
```sh
docker-compose down
```
---
> Замечание: после запуска контейнера, необходимо перейти в контейнер **ollamа** и выполнить установку модели [gemma2](https://ollama.com/library/gemma2:2b)
> ```sh
> docker-compose exec ollama ollama run ollama run gemma2:2b
> ```
---
Далее можно использовать веб сервис Open Web Ui по адресу **localhost:8080** для общения с моделью и Gitea по адресу **localhost:3000** - [демонстрация работы](https://vk.com/video/@viltskaa?z=video236673313_456239574%2Fpl_236673313_-2)

View File

@@ -1,61 +0,0 @@
services:
gitea: # Имя сервиса
image: gitea/gitea:latest # Имя образа
container_name: gitea # Имя контейнера, может быть произовольным
ports:
- "3000:3000" # Проброс порта Gitea на хост
volumes: # хранилище
- data:/data
environment: # переменные окружения
USER_UID: 1000
USER_GID: 1000
ollama:
image: ollama/ollama:latest
container_name: ollama
restart: always
ports:
- 7869:11434
pull_policy: always
tty: true
volumes:
- .:/code
- ./ollama/ollama:/root/.ollama # Директория для данных Ollama
environment:
- OLLAMA_KEEP_ALIVE=24h
- OLLAMA_HOST=0.0.0.0 # Указываем хост для API Ollama
networks:
- ollama-docker
command: ["serve"] # Запускаем Ollama в режиме сервера
ollama-webui:
image: ghcr.io/open-webui/open-webui:main # Образ Open Web UI
container_name: ollama-webui
restart: unless-stopped
volumes:
- ./ollama/ollama-webui:/app/backend/data
ports:
- 8080:8080 # Порт для веб-интерфейса
environment: # https://docs.openwebui.com/getting-started/env-configuration#default_models
- OLLAMA_BASE_URLS=http://host.docker.internal:7869
- ENV=dev
- WEBUI_AUTH=False
- WEBUI_NAME=Viltskaa AI
- WEBUI_URL=http://localhost:8080
- WEBUI_SECRET_KEY=t0p-s3cr3t
depends_on:
- ollama
extra_hosts:
- host.docker.internal:host-gateway
networks:
- ollama-docker
networks:
ollama-docker:
external: false
volumes:
ollama:
driver: local
data:
driver: local

View File

@@ -1,38 +0,0 @@
target/
!.mvn/wrapper/maven-wrapper.jar
!**/src/main/**/target/
!**/src/test/**/target/
### IntelliJ IDEA ###
.idea/modules.xml
.idea/jarRepositories.xml
.idea/compiler.xml
.idea/libraries/
*.iws
*.iml
*.ipr
### Eclipse ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
build/
!**/src/main/**/build/
!**/src/test/**/build/
### VS Code ###
.vscode/
### Mac OS ###
.DS_Store

View File

@@ -1,43 +0,0 @@
# Отчет. Лабораторная работа 2
В рамках лабораторной работы №2 были написаны два сервиса, работающих с текстовыми файлами.
Для первого сервиса был выбран вариант задания №5:
```
Ищет в каталоге /var/data файл с самым коротким названием и перекладывает его в /var/result/data.txt.
```
А для второго - №2:
```
Ищет наименьшее число из файла /var/data/data.txt и сохраняет его третью степень в /var/result/result.txt.
```
## Описание
Сначала сервис first перемещает данные из файла с самым коротким названием, находящегося в указанной примонтированной директории, в выходную папку.
Доступ к выходной папке имеет второй сервис, который выводит наименьшее число из помещенного первым сервисом файла
в третьей степени в выходной файл.
Выходной файл расположен в примонтированной директории и доступен на машине, где запускаются сервисы.
В Dockerfile используется многоэтапная сборка с использованием нескольких базовых образов на каждом этапе.
Описание значения каждой строки есть в Dockerfile в сервисе first.
В файле docker-compose.yml приведено описание новых строк, связанных с подключением примонтированных томов.
Стоит отметить, что для "общения" сервисов используется общий том common, который монтируется в контейнер по пути /var/result. Это позволяет сохранять результаты
работы первого сервиса для использования вторым сервисом.
## Как запустить
Для того, чтобы запустить сервисы, необходимо выполнить следующие действия:
1. Установить и запустить Docker Engine или Docker Desktop
2. Через консоль перейти в папку, в которой расположен файл docker-compose.yml
3. Выполнить команду:
```
docker compose up --build
```
В случае успешного запуска всех контейнеров в консоли будет выведено следующее сообщение:
```
✔ Network borschevskaya_anna_lab_2_default Created 0.1s
✔ Container borschevskaya_anna_lab_2-first-1 Created 0.1s
✔ Container borschevskaya_anna_lab_2-second-1 Created 0.1s
Attaching to borschevskaya_anna_lab_2-first-1, borschevskaya_anna_lab_2-second-1
```
Далее, в консоль каждого сервиса будут выведены сообщения о том, как прошла обработка файлов.
В случае отсутствия заданных значений переменных окружения INPUT_PATH и OUTPUT_PATH и
в иных исключительных ситуация будет выведена информация об этом.
## Видео-отчет
Работоспособность лабораторной работы можно оценить в следующем [видео](https://disk.yandex.ru/i/LFxdyRUFQDwXEQ).

View File

@@ -1,22 +0,0 @@
services:
first:
build: ./first # директория, в которой нужно искать Dockerfile для сборки первого сервиса
environment:
INPUT_PATH: /var/data/ # директория с входными данными для обработки файлов
OUTPUT_PATH: /var/result/ # директория с выходными данными обработки
volumes:
- ./volumes/input:/var/data # монтируется локальная папка с входными данными в папку внутри контейнера
- common:/var/result # монтируется общий для двух сервисов том, в который first сложит результаты обработки по варианту
second:
build: ./second # директория, в которой нужно искать Dockerfile для сборки второго сервиса
depends_on: # сервис second зависит от сервиса first и будет запущен после него
- first
environment:
INPUT_PATH: /var/result/
OUTPUT_PATH: /var/data/
volumes:
- ./volumes/output:/var/data
- common:/var/result # монтируется общий для двух сервисов том, из которого second получит результаты обработки first сервиса и выполнит свою логику
volumes:
common:

View File

@@ -1,25 +0,0 @@
# Используем образ Maven для сборки
FROM maven:3.8-eclipse-temurin-21-alpine AS build
# Устанавливаем рабочую директорию
WORKDIR /app
# Копируем только pom.xml и загружаем зависимости
# Так зависимости закэшируются в Docker при изменении кода закэшированные слои с зависимостями будут подгружаться быстрее
COPY pom.xml .
RUN mvn dependency:go-offline
# Копируем остальные исходные файлы
COPY src ./src
# Собираем весь проект
RUN mvn clean package -DskipTests
# Используем официальный образ JDK для запуска собранного jar-файла
FROM eclipse-temurin:21-jdk-alpine
# Копируем jar-файл из предыдущего этапа
COPY --from=build /app/target/*.jar /app.jar
# Указываем команду для запуска приложения
CMD ["java", "-jar", "app.jar"]

View File

@@ -1,37 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>ru.first</groupId>
<artifactId>first</artifactId>
<version>1.0.0-SNAPSHOT</version>
<properties>
<maven.compiler.source>21</maven.compiler.source>
<maven.compiler.target>21</maven.compiler.target>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
</properties>
<build>
<plugins>
<plugin>
<!-- Build an executable JAR -->
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-jar-plugin</artifactId>
<version>3.1.0</version>
<configuration>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<classpathPrefix>lib/</classpathPrefix>
<mainClass>ru.first.Main</mainClass>
</manifest>
</archive>
</configuration>
</plugin>
</plugins>
</build>
</project>

View File

@@ -1,50 +0,0 @@
package ru.first;
import java.io.File;
import java.io.IOException;
import java.nio.file.Files;
import java.nio.file.Path;
import java.util.Arrays;
import java.util.Comparator;
import static java.nio.file.StandardCopyOption.REPLACE_EXISTING;
import static java.util.Objects.isNull;
public class Main {
public static final String INPUT_PATH = System.getenv("INPUT_PATH");
public static final String OUTPUT_PATH = System.getenv("OUTPUT_PATH");
public static final String RESULT_FILE_NAME = "data.txt";
public static void main(String[] args) throws IOException {
if (isNull(INPUT_PATH) || INPUT_PATH.isEmpty() || isNull(OUTPUT_PATH) || OUTPUT_PATH.isEmpty()) {
System.out.printf("Отсутствуют переменные окружения INPUT_PATH = '%s' или OUTPUT_PATH = '%s'%n",
INPUT_PATH, OUTPUT_PATH);
return;
}
var inputPathDir = Path.of(INPUT_PATH);
if (!Files.exists(inputPathDir)) {
Files.createDirectory(inputPathDir);
}
var inputDirectory = new File(INPUT_PATH);
var allDirFiles = inputDirectory.listFiles();
if (isNull(allDirFiles) || allDirFiles.length == 0) {
System.out.println("Директория пуста");
return;
}
var dirFiles = Arrays.stream(allDirFiles).filter(File::isFile).toList();
if (dirFiles.isEmpty()) {
System.out.println("В указанной директории нет подходящих для обработки файлов");
return;
}
var shortestName = dirFiles.stream().min(Comparator.comparing(file -> file.getName().length())).get();
var outputPathDir = Path.of(OUTPUT_PATH);
if (!Files.exists(outputPathDir)) {
Files.createDirectory(outputPathDir);
}
var resultFilePath = Path.of(OUTPUT_PATH + File.separator + RESULT_FILE_NAME);
Files.move(Path.of(INPUT_PATH + File.separator + shortestName.getName()), resultFilePath, REPLACE_EXISTING);
}
}

View File

@@ -1,16 +0,0 @@
FROM maven:3.8-eclipse-temurin-21-alpine AS build
WORKDIR /app
COPY pom.xml .
RUN mvn dependency:go-offline
COPY src ./src
RUN mvn clean package -DskipTests
FROM eclipse-temurin:21-jdk-alpine
COPY --from=build /app/target/*.jar /app.jar
CMD ["java", "-jar", "app.jar"]

View File

@@ -1,36 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>ru.second</groupId>
<artifactId>second</artifactId>
<version>1.0.0-SNAPSHOT</version>
<properties>
<maven.compiler.source>21</maven.compiler.source>
<maven.compiler.target>21</maven.compiler.target>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
</properties>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-jar-plugin</artifactId>
<version>3.1.0</version>
<configuration>
<archive>
<manifest>
<addClasspath>true</addClasspath>
<classpathPrefix>lib/</classpathPrefix>
<mainClass>ru.second.Main</mainClass>
</manifest>
</archive>
</configuration>
</plugin>
</plugins>
</build>
</project>

View File

@@ -1,51 +0,0 @@
package ru.second;
import java.io.File;
import java.io.FileWriter;
import java.nio.file.Files;
import static java.util.Objects.isNull;
public class Main {
public static final String INPUT_PATH = System.getenv("INPUT_PATH");
public static final String INPUT_FILE_NAME = "data.txt";
public static final String OUTPUT_PATH = System.getenv("OUTPUT_PATH");
public static final String RESULT_FILE_NAME = "result.txt";
public static void main(String[] args) {
if (isNull(INPUT_PATH) || INPUT_PATH.isEmpty() || isNull(OUTPUT_PATH) || OUTPUT_PATH.isEmpty()) {
System.out.printf("Отсутствуют переменные окружения INPUT_PATH = '%s' или OUTPUT_PATH = '%s'%n",
INPUT_PATH, OUTPUT_PATH);
return;
}
var inputFile = new File(INPUT_PATH + File.separator + INPUT_FILE_NAME);
if (!inputFile.exists()) {
System.out.println("Входной файл не существует");
return;
}
try (var stream = Files.lines(inputFile.toPath());
var writer = new FileWriter(OUTPUT_PATH + File.separator + RESULT_FILE_NAME);
) {
var min = stream.map(Main::parseInt).reduce(Integer::min);
if (min.isEmpty()) {
System.out.println("Не найдено минимальное значение среди строк файла");
return;
}
var minValue = Math.pow(min.get(), 3);
System.out.printf("Get min value = '%d'%n", min.get());
writer.append(Double.toString(minValue));
System.out.printf("To file %s was written value %f%n", RESULT_FILE_NAME, minValue);
} catch (Exception ex) {
System.out.println(ex.getMessage());
}
}
private static Integer parseInt(String line) {
line = line.replace("\\n", "");
return Integer.parseInt(line);
}
}

View File

@@ -1,4 +0,0 @@
data/
log/
wordpress/
custom/

View File

@@ -1,34 +0,0 @@
# Лабораторная работа №1
## Выполнил: Долгов Дмитрий, группа ПИбд-42
### Были развёрнуты следующие сервисы:
* mediawiki (движок вики)
* wordpress (популярная система управления контентом)
* gitea (сервис для хранения репозиториев git)
* mariaDB
### Были использованы следующие технологии:
* git
* docker
* docker-compose
### Для запуска лабораторной работы необходимо ввести в консоль следующую команду:
```
docker compose up -d
```
## Результат запуска:
```
[+] Running 4/4
✔ Container dolgov_dmitriy_lab_1-wordpress-1 Running 0.0s
✔ Container dolgov_dmitriy_lab_1-database-1 Running 0.0s
✔ Container dolgov_dmitriy_lab_1-mediawiki-1 Running 0.0s
✔ Container gitea Running
```
## Видео с результатом запуска:
Видео можно посмотреть по данной [ссылке](https://drive.google.com/file/d/1hC6HhNvYBRuYVClobXyDMReA4ngwxhwc/view?usp=drive_link).

View File

@@ -1,73 +0,0 @@
# Сервисы по заданию
services:
# Сервис MediaWiki
mediawiki:
# Образ MediaWiki
image: mediawiki
# Автоматический перезапуск при сбое
restart: always
# проброс порта 80 из контейнера на порт 8080 хоста
ports:
- "8080:80"
# связь с сервисом database
links:
- database
# монтирование volume для хранения данных
volumes:
- images:/var/www/html/images
# Сервис WordPress
wordpress:
# Образ WordPress
image: wordpress:latest
# Автоматический перезапуск при сбое
ports:
- "8082:80"
restart: always
volumes:
- ./wordpress:/var/www/html
# Сервис Gitea
server:
image: gitea/gitea:latest
container_name: gitea
restart: always
environment:
- USER_UID=1000
- USER_GID=1000
volumes:
- ./data:/data
- ./custom:/app/gitea/custom
- ./log:/app/gitea/log
ports:
- "8081:3000"
links:
- database
depends_on:
- database
# Сервис MariaDB
database:
# Образ MariaDB
image: mariadb
# Автоматический перезапуск при сбое
restart: always
# переменные окружения для настройки базы данных
environment:
# имя базы данных
MYSQL_DATABASE: my_wiki
# имя пользователя
MYSQL_USER: user
# пароль пользователя
MYSQL_PASSWORD: user
# случайный пароль для пользователя root
MYSQL_RANDOM_ROOT_PASSWORD: 'yes'
# монтирование volume для хранения данных
volumes:
- db:/var/lib/mysql
# тома для хранения данных
volumes:
images:
db:

Binary file not shown.

Before

Width:  |  Height:  |  Size: 275 KiB

View File

@@ -1,29 +0,0 @@
services:
rabbitmq:
image: rabbitmq:3.12.8-management
environment:
RABBITMQ_DEFAULT_USER: admin
RABBITMQ_DEFAULT_PASS: admin
ports:
- 15672:15672
volumes:
- rabbitmq-data:/var/lib/rabbitmq
mediawiki:
image: mediawiki
ports:
- 8081:80
volumes:
- mediawiki-data:/var/files/mediawiki
wordpress:
image: wordpress
ports:
- 8082:80
volumes:
- wordpress-data:/var/files/wordpress
volumes:
rabbitmq-data:
mediawiki-data:
wordpress-data:

View File

@@ -1,26 +0,0 @@
# Docker Compose: RabbitMQ, Mediawiki, Wordpress
## Описание проекта
Этот проект разворачивает три сервиса с помощью Docker Compose:
1. **RabbitMQ** — брокер сообщений.
2. **Mediawiki** — движок вики.
3. **Wordpress** — популярная система управления контентом.
## Команды для запуска
Из директории с файлом docker-compose.yml запустить сервисы docker-compose up --build
## Сервисы и порты
1. **RabbitMQ:**
Доступ по адресу http://localhost:15672/ (логин: admin, пароль: admin).
2. **Mediawiki:**
Доступ по адресу http://localhost:8081/.
3. **Wordpress:**
Доступ по адресу http://localhost:8082/.
## Видео https://drive.google.com/file/d/1NvsMFoMU2ecsQ17EouqB_ZaLBskonHv0/view?usp=sharing

View File

@@ -1,2 +0,0 @@
/.venv
/.idea

View File

@@ -1,16 +0,0 @@
# Цуканова Ирина ПИбд-32
# Лабораторная работа №2 - Разработка простейшего распределённого приложения
### Язык разработки приложений: Python
## Выбранные варианты
- Для программы 1: Ищет в каталоге ```/var/data``` самый большой по объёму файл и перекладывает его в ```/var/result/data.txt```.
- Для программы 2: Сохраняет произведение первого и последнего числа из файла ```/var/result/data.txt``` в ```/var/result/result.txt```.
## Описание:
Каждая программа лежит в своей папке, первая в worker-1, вторая в worker-2.
В этих же папках лежат Dockerfile'ы с инструкциями по сборке. В них присутствуют комментарии для значимых строк.
Монтированные папки ```data``` для ```/var/data``` и ```result``` для ```/var/result```.
## [Видео](https://drive.google.com/file/d/1eBbIDgTo3MF4EeM677EPEKgJEINekaC0/view?usp=drive_link)

View File

@@ -1 +0,0 @@
34 905 63 92 74 9 3 25 8 0 2 4 24 452 94 6 2 4 2 65 83 73 672 47 23 21 1

View File

@@ -1 +0,0 @@
4 9 6 320 75 348 12 75 94 63 45 23 3

View File

@@ -1 +0,0 @@
5 34 7 9 6 43 5 768 4 23 1 3 657 534 4 3 87 6 9 8 56 37 525 5 7 3 2 65 4 86 7 295 473 254 633 4 45 2

View File

@@ -1,18 +0,0 @@
services:
worker_one:
container_name: worker_one
build:
dockerfile: ./worker-1
volumes:
- ./data:/var/data
- ./result:/var/result
worker_two:
container_name: worker_two
build:
dockerfile: ./worker-2
volumes:
- ./result:/var/result
depends_on:
- worker_one

View File

@@ -1 +0,0 @@
5 34 7 9 6 43 5 768 4 23 1 3 657 534 4 3 87 6 9 8 56 37 525 5 7 3 2 65 4 86 7 295 473 254 633 4 45 2

View File

@@ -1 +0,0 @@
10

View File

@@ -1,11 +0,0 @@
# Использую базовый образ Python
FROM python:3.12-slim
# Устанавливаю рабочую директорию внутри контейнера
WORKDIR /app
# Копирую все файлы в контейнер
COPY worker_1.py .
# Команда для запуска Python-скрипта
CMD ["python", "worker_1.py"]

View File

@@ -1,27 +0,0 @@
import os
import shutil
# Ищет в каталоге /var/data самый большой по объёму файл и перекладывает его в /var/result/data.txt.
print("start worker_1")
dir_data = "/var/data"
dir_res = "/var/result"
if not os.path.exists(dir_data):
os.mkdir(dir_data)
if not os.path.exists(dir_res):
os.mkdir(dir_res)
largest_file = None
largest_size = 0
for root, dirs, files in os.walk(dir_data):
for file in files:
file_path = os.path.join(root, file)
file_size = os.path.getsize(file_path)
if file_size > largest_size:
largest_size = file_size
largest_file = file_path
if largest_file:
shutil.copyfile(largest_file, dir_res + "/data.txt")

View File

@@ -1,11 +0,0 @@
# Использую базовый образ Python
FROM python:3.12-slim
# Устанавливаю рабочую директорию внутри контейнера
WORKDIR /app
# Копирую все файлы в контейнер
COPY worker_2.py .
# Команда для запуска Python-скрипта
CMD ["python", "worker_2.py"]

View File

@@ -1,19 +0,0 @@
# Сохраняет произведение первого и последнего числа из файла /var/result/data.txt в /var/result/result.txt.
print("start worker_2")
with open('/var/result/data.txt', 'r') as f:
numbers = [int(num) for num in f.read().split() if num.isdigit()]
if numbers:
first_number = numbers[0]
last_number = numbers[-1]
result = first_number * last_number
with open('/var/result/result.txt', 'w') as f:
f.write(f"{result}\n")
print(f"Получен результат - {result}")
else:
print("Результат не получен. Файл не содержит чисел")

View File

@@ -1,19 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.19.6" />
</ItemGroup>
<!-- <ItemGroup>
<ProjectReference Include="..\FileGeneration\FileGeneration.csproj" />
</ItemGroup> -->
</Project>

View File

@@ -1,20 +0,0 @@
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
WORKDIR /app
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
COPY ["App1.csproj", "App1/"]
RUN dotnet restore "App1/App1.csproj"
WORKDIR "/src/App1"
COPY . .
RUN dotnet build "App1.csproj" -c $BUILD_CONFIGURATION -o /app/build
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
RUN dotnet publish "App1.csproj" -c $BUILD_CONFIGURATION -o /app/publish --self-contained false --no-restore
FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .
ENTRYPOINT ["dotnet", "App1.dll"]

View File

@@ -1,31 +0,0 @@
using System;
using System.IO;
class Program
{
static void Main()
{
string inputPath = Environment.GetEnvironmentVariable("DATA_PATH") ?? ".\\data";
string outputPath = Environment.GetEnvironmentVariable("RESULT_PATH") ?? ".\\result";
try
{
string[] files = Directory.GetFiles(inputPath);
using (StreamWriter writer = new StreamWriter(Path.Combine(outputPath, "data.txt")))
{
foreach (string file in files)
{
int lineCount = File.ReadAllLines(file).Length;
writer.WriteLine(lineCount);
}
}
Console.WriteLine("Файл data.txt успешно создан");
}
catch (Exception ex)
{
Console.WriteLine("Произошла ошибка: " + ex.Message);
}
}
}

View File

@@ -1,10 +0,0 @@
{
"profiles": {
"App1": {
"commandName": "Project"
},
"Container (Dockerfile)": {
"commandName": "Docker"
}
}
}

View File

@@ -1,15 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.19.6" />
</ItemGroup>
</Project>

View File

@@ -1,20 +0,0 @@
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
WORKDIR /app
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
COPY ["App2.csproj", "App2/"]
RUN dotnet restore "App2/App2.csproj"
WORKDIR "/src/App2"
COPY . .
RUN dotnet build "App2.csproj" -c $BUILD_CONFIGURATION -o /app/build
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
RUN dotnet publish "App2.csproj" -c $BUILD_CONFIGURATION -o /app/publish --self-contained false --no-restore
FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .
ENTRYPOINT ["dotnet", "App2.dll"]

View File

@@ -1,35 +0,0 @@
using System;
using System.IO;
using System.Linq;
class Program
{
static void Main()
{
string inputPath = Environment.GetEnvironmentVariable("DATA_PATH") ?? ".\\data";
string outputPath = Environment.GetEnvironmentVariable("RESULT_PATH") ?? ".\\result";
try
{
string dataFilePath = Path.Combine(inputPath, "data.txt");
// Чтение всех строк из файла
string[] lines = File.ReadAllLines(dataFilePath);
int[] numbers = lines.Select(int.Parse).ToArray();
// Поиск наибольшего числа
int maxNumber = numbers.Max();
// Подсчет количества таких чисел
int maxCount = numbers.Count(n => n == maxNumber);
File.WriteAllText(Path.Combine(outputPath, "result.txt"), maxCount.ToString());
Console.WriteLine($"Количество наибольших чисел: {maxCount}");
}
catch (Exception ex)
{
Console.WriteLine("Произошла ошибка: " + ex.Message);
}
}
}

View File

@@ -1,10 +0,0 @@
{
"profiles": {
"App2": {
"commandName": "Project"
},
"Container (Dockerfile)": {
"commandName": "Docker"
}
}
}

View File

@@ -1,37 +0,0 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.9.34728.123
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "App2", "App2\App2.csproj", "{D03073B1-0CB3-4CA9-A9D8-F1FB804F92D1}"
EndProject
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "App1", "App1\App1.csproj", "{729837A1-27A7-4D48-BBB2-21F68E5F7766}"
EndProject
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "FileGeneration", "FileGeneration\FileGeneration.csproj", "{E7AD8A8C-C957-41FF-B92A-924465D73DDB}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{D03073B1-0CB3-4CA9-A9D8-F1FB804F92D1}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{D03073B1-0CB3-4CA9-A9D8-F1FB804F92D1}.Debug|Any CPU.Build.0 = Debug|Any CPU
{D03073B1-0CB3-4CA9-A9D8-F1FB804F92D1}.Release|Any CPU.ActiveCfg = Release|Any CPU
{D03073B1-0CB3-4CA9-A9D8-F1FB804F92D1}.Release|Any CPU.Build.0 = Release|Any CPU
{729837A1-27A7-4D48-BBB2-21F68E5F7766}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{729837A1-27A7-4D48-BBB2-21F68E5F7766}.Debug|Any CPU.Build.0 = Debug|Any CPU
{729837A1-27A7-4D48-BBB2-21F68E5F7766}.Release|Any CPU.ActiveCfg = Release|Any CPU
{729837A1-27A7-4D48-BBB2-21F68E5F7766}.Release|Any CPU.Build.0 = Release|Any CPU
{E7AD8A8C-C957-41FF-B92A-924465D73DDB}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{E7AD8A8C-C957-41FF-B92A-924465D73DDB}.Debug|Any CPU.Build.0 = Debug|Any CPU
{E7AD8A8C-C957-41FF-B92A-924465D73DDB}.Release|Any CPU.ActiveCfg = Release|Any CPU
{E7AD8A8C-C957-41FF-B92A-924465D73DDB}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ExtensibilityGlobals) = postSolution
SolutionGuid = {36392E9A-B3A7-4CFF-B577-B2A3146B3007}
EndGlobalSection
EndGlobal

View File

@@ -1,22 +0,0 @@
#See https://aka.ms/customizecontainer to learn how to customize your debug container and how Visual Studio uses this Dockerfile to build your images for faster debugging.
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
WORKDIR /app
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
COPY ["FileGeneration.csproj", "FileGeneration/"]
RUN dotnet restore "FileGeneration/FileGeneration.csproj"
WORKDIR "/src/FileGeneration"
COPY . .
RUN dotnet build "FileGeneration.csproj" -c $BUILD_CONFIGURATION -o /app/build
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
RUN dotnet publish "FileGeneration.csproj" -c $BUILD_CONFIGURATION -o /app/publish --self-contained false --no-restore
FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .
ENTRYPOINT ["dotnet", "FileGeneration.dll"]

View File

@@ -1,15 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.19.6" />
</ItemGroup>
</Project>

View File

@@ -1,41 +0,0 @@
using System;
using System.IO;
class Program
{
static void Main()
{
string directoryPath = Environment.GetEnvironmentVariable("DATA_PATH") ?? ".\\data";
Random random = new Random();
try
{
if (!Directory.Exists(directoryPath))
{
Directory.CreateDirectory(directoryPath);
}
for (int i = 1; i <= 100; i++)
{
int lineCount = random.Next(1, 101);
string filePath = Path.Combine(directoryPath, $"file_{i}.txt");
using (StreamWriter writer = new StreamWriter(filePath))
{
for (int j = 0; j < lineCount; j++)
{
writer.WriteLine($"{j + 1}");
}
}
Console.WriteLine($"Файл {filePath} успешно создан с {lineCount} строками.");
}
}
catch (Exception ex)
{
Console.WriteLine("Произошла ошибка: " + ex.Message);
}
}
}

View File

@@ -1,10 +0,0 @@
{
"profiles": {
"FileGeneration": {
"commandName": "Project"
},
"Container (Dockerfile)": {
"commandName": "Docker"
}
}
}

View File

@@ -1,34 +0,0 @@
# Лабораторная работа 2
## Описание
В данной лабораторной работе были изучены файлы сборки образов и создание их для приложений. Сборки образов необходимы для контейниризации созданных приложений. В файле сборки мы указываем папку из которой копируем в контейнер и собираем проект.
## Описание работы
Были выбраны варианты для первого приложения - 3 вариант и для второго 3 вариант.
В первом приложении мы ищем все файлы из папки output и записываем количество строк каждого файла в файл data.txt. Затем второе приложение ищет в data.txt наибольшее значения и записывает количество наибольших значений в файл result.txt.
## Запуск
1. Для начала необходимо запустить Docker
2. Открыть консоль, перейти в папку с docker-compose.yml
3. Ввести команду:
```
docker compose up --build
```
`--build` необходим для принудительной сборки контейнеров, даже если они уже запущены.
## Результат
В результате в логах видим, что приложения успешно отработали:
```
app2-1 | Количество наибольших чисел: 1
app1-1 exited with code 0
app2-1 exited with code 0
```
И также видим в папке Files две созданные папки: data и result. В data находятся сгенерированные файлы, а в result - файл с результатом.
## Описание docker-compose.yml
В docker-compose.yml запускаются 3 сервиса: первый генерирует файлы с рандомным набором строк, второй сервис записывает количество строк каждого файла в data.txt, а третий сервис определяет количество наибольших чисел из файла data.txt и записывает результат в файл result.txt. Также используются зависимости `depends_on`, второй сервис зависит от запуска первого, и третий севрис зависит от запуска второго.
С помощью `volumes` создаем буферную область, которая позволяет использовать двум севрисам одну папку. `build` позволяет использовать только что собранный образ в момент запуска.
## Видеоотчёт
[Видеоотчёт](https://disk.yandex.ru/i/Ds2f4xO8vQ8XPA)

View File

@@ -1,33 +0,0 @@
services:
generatefiles:
build: ./FileGeneration/
volumes:
- ./Files/data:/var/data
- buffer:/var/result
environment:
DATA_PATH: "/var/data"
RESULT_PATH: "/var/result"
app1:
build: ./App1/
depends_on:
- generatefiles
volumes:
- ./Files/data:/var/data
- buffer:/var/result
environment:
DATA_PATH: "/var/data"
RESULT_PATH: "/var/result"
app2:
build: ./App2/
depends_on:
- app1
volumes:
- buffer:/var/data
- ./Files/result:/var/result
environment:
DATA_PATH: "/var/data"
RESULT_PATH: "/var/result"
volumes:
buffer:

View File

@@ -0,0 +1,12 @@
{
"version": 1,
"isRoot": true,
"tools": {
"dotnet-ef": {
"version": "8.0.8",
"commands": [
"dotnet-ef"
]
}
}
}

View File

@@ -0,0 +1,25 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.9.34728.123
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "Administrator", "Administrator\Administrator.csproj", "{45DF535F-4F9E-4A5C-9D60-4B0709863ED8}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{45DF535F-4F9E-4A5C-9D60-4B0709863ED8}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{45DF535F-4F9E-4A5C-9D60-4B0709863ED8}.Debug|Any CPU.Build.0 = Debug|Any CPU
{45DF535F-4F9E-4A5C-9D60-4B0709863ED8}.Release|Any CPU.ActiveCfg = Release|Any CPU
{45DF535F-4F9E-4A5C-9D60-4B0709863ED8}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ExtensibilityGlobals) = postSolution
SolutionGuid = {211037E3-7DB9-4964-B9B8-211487849EED}
EndGlobalSection
EndGlobal

View File

@@ -0,0 +1,22 @@
<Project Sdk="Microsoft.NET.Sdk.Web">
<PropertyGroup>
<TargetFramework>net8.0</TargetFramework>
<Nullable>enable</Nullable>
<ImplicitUsings>enable</ImplicitUsings>
<UserSecretsId>b3476a56-c45e-4a63-be32-5987c93f46b1</UserSecretsId>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.EntityFrameworkCore" Version="8.0.8" />
<PackageReference Include="Microsoft.EntityFrameworkCore.Tools" Version="8.0.8">
<PrivateAssets>all</PrivateAssets>
<IncludeAssets>runtime; build; native; contentfiles; analyzers; buildtransitive</IncludeAssets>
</PackageReference>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.19.6" />
<PackageReference Include="Npgsql.EntityFrameworkCore.PostgreSQL" Version="8.0.8" />
<PackageReference Include="Swashbuckle.AspNetCore" Version="6.4.0" />
</ItemGroup>
</Project>

View File

@@ -0,0 +1,6 @@
@Administrator_HostAddress = http://localhost:5015
GET {{Administrator_HostAddress}}/weatherforecast/
Accept: application/json
###

View File

@@ -0,0 +1,126 @@
using Microsoft.AspNetCore.Mvc;
using Microsoft.EntityFrameworkCore;
using Microsoft.Extensions.Logging;
using System.Collections.Generic;
using System.Linq;
using System.Threading.Tasks;
using Administrator.DataBase;
using Administrator.DataBase.DBModels;
namespace Administrator.Controllers
{
[ApiController]
[Route("Administrators/")]
public class AdminController : ControllerBase
{
private readonly AdminDataBaseContext _context;
private readonly ILogger<AdminController> _logger;
private readonly IHttpClientFactory _clientFactory;
public AdminController(AdminDataBaseContext context, ILogger<AdminController> logger, IHttpClientFactory clientFactory)
{
_context = context;
_logger = logger;
_clientFactory = clientFactory;
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpPost]
public async Task<ActionResult<Admin>> CreateAdministrator(Admin administrator)
{
if (!await ClientExists(administrator.ClientId))
{
return BadRequest("<22><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>.");
}
_context.Administrators.Add(administrator);
await _context.SaveChangesAsync();
return CreatedAtAction(nameof(GetAdministratorById), new { id = administrator.Id }, administrator);
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpPut("{id}")]
public async Task<IActionResult> UpdateAdministrator(int id, Admin updatedAdministrator)
{
if (!await ClientExists(updatedAdministrator.ClientId))
{
return BadRequest("<22><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>.");
}
if (id != updatedAdministrator.Id)
{
return BadRequest();
}
_context.Entry(updatedAdministrator).State = EntityState.Modified;
try
{
await _context.SaveChangesAsync();
}
catch (DbUpdateConcurrencyException)
{
if (!AdminExists(id))
{
return NotFound();
}
else
{
throw;
}
}
return NoContent();
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpDelete("{id}")]
public async Task<IActionResult> DeleteAdministrator(int id)
{
var administrator = await _context.Administrators.FindAsync(id);
if (administrator == null)
{
return NotFound("<22><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD>");
}
_context.Administrators.Remove(administrator);
await _context.SaveChangesAsync();
return NoContent();
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpGet]
public async Task<ActionResult<IEnumerable<Admin>>> GetAllAdministrators()
{
return await _context.Administrators.ToListAsync();
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><> ID
[HttpGet("{id}")]
public async Task<ActionResult<Admin>> GetAdministratorById(int id)
{
var administrator = await _context.Administrators.FindAsync(id);
if (administrator == null)
{
return NotFound("<22><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD>");
}
return administrator;
}
private bool AdminExists(int id)
{
return _context.Administrators.Any(e => e.Id == id);
}
private async Task<bool> ClientExists(int buyerId)
{
var client = _clientFactory.CreateClient("BuyerService");
var response = await client.GetAsync($"Buyers/{buyerId}");
return response.IsSuccessStatusCode;
}
}
}

View File

@@ -0,0 +1,20 @@
using Administrator.DataBase.DBModels;
using Microsoft.EntityFrameworkCore;
namespace Administrator.DataBase
{
public class AdminDataBaseContext : DbContext
{
public AdminDataBaseContext(DbContextOptions<AdminDataBaseContext> options)
: base(options)
{
}
public DbSet<Admin> Administrators { get; set; }
protected override void OnModelCreating(ModelBuilder modelBuilder)
{
modelBuilder.Entity<Admin>().ToTable("Administrators");
}
}
}

View File

@@ -0,0 +1,21 @@
using System.ComponentModel.DataAnnotations;
namespace Administrator.DataBase.DBModels
{
public class Admin
{
[Key]
public int Id { get; set; }
[Required]
[StringLength(50)]
public string FirstName { get; set; }
[StringLength(50)]
public string SecondName { get; set; }
[Required]
public int ClientId { get; set; }
}
}

View File

@@ -0,0 +1,25 @@
#See https://aka.ms/customizecontainer to learn how to customize your debug container and how Visual Studio uses this Dockerfile to build your images for faster debugging.
FROM mcr.microsoft.com/dotnet/aspnet:8.0 AS base
USER app
WORKDIR /app
EXPOSE 8080
EXPOSE 8081
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
COPY ["Administrator/Administrator.csproj", "Administrator/"]
RUN dotnet restore "./Administrator/Administrator.csproj"
COPY . .
WORKDIR "/src/Administrator"
RUN dotnet build "./Administrator.csproj" -c $BUILD_CONFIGURATION -o /app/build
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
RUN dotnet publish "./Administrator.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .
ENTRYPOINT ["dotnet", "Administrator.dll"]

View File

@@ -0,0 +1,10 @@
var host = CreateHostBuilder(args).Build();
host.Run();
static IHostBuilder CreateHostBuilder(string[] args) =>
Host.CreateDefaultBuilder(args)
.ConfigureWebHostDefaults(webBuilder =>
{
webBuilder.UseStartup<Startup>();
});

View File

@@ -0,0 +1,42 @@
{
"profiles": {
"http": {
"commandName": "Project",
"launchBrowser": true,
"launchUrl": "swagger",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
},
"dotnetRunMessages": true,
"applicationUrl": "http://localhost:5015"
},
"IIS Express": {
"commandName": "IISExpress",
"launchBrowser": true,
"launchUrl": "swagger",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"Container (Dockerfile)": {
"commandName": "Docker",
"launchBrowser": true,
"launchUrl": "{Scheme}://{ServiceHost}:{ServicePort}/swagger",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development",
"ASPNETCORE_URLS": "http://+:80"
},
"publishAllPorts": true,
"useSSL": false
}
},
"$schema": "http://json.schemastore.org/launchsettings.json",
"iisSettings": {
"windowsAuthentication": false,
"anonymousAuthentication": true,
"iisExpress": {
"applicationUrl": "http://localhost:60492",
"sslPort": 0
}
}
}

View File

@@ -0,0 +1,55 @@
using Microsoft.EntityFrameworkCore;
using Administrator.DataBase;
public class Startup
{
public Startup(IConfiguration configuration)
{
Configuration = configuration;
}
public IConfiguration Configuration { get; }
public void ConfigureServices(IServiceCollection services)
{
services.AddControllers();
services.AddDbContext<AdminDataBaseContext>(options =>
options.UseNpgsql(Configuration.GetConnectionString("AdminDatabase")));
services.AddHttpClient("BuyerService", client =>
{
client.BaseAddress = new Uri("http://buyer-service:8080/");
});
services.AddSwaggerGen();
}
public void Configure(IApplicationBuilder app, IWebHostEnvironment env, IServiceScopeFactory serviceScopeFactory)
{
if (env.IsDevelopment())
{
app.UseDeveloperExceptionPage();
}
app.UseHttpsRedirection();
app.UseRouting();
app.UseAuthorization();
using (var scope = serviceScopeFactory.CreateScope())
{
var context = scope.ServiceProvider.GetRequiredService<AdminDataBaseContext>();
context.Database.Migrate();
}
app.UseEndpoints(endpoints =>
{
endpoints.MapControllers();
});
app.UseSwagger();
app.UseSwaggerUI();
}
}

View File

@@ -0,0 +1,8 @@
{
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
}
}

View File

@@ -0,0 +1,12 @@
{
"ConnectionStrings": {
"AdminDatabase": "Host=postgresdb;Database=administrator;Username=postgres;Password=123"
},
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
},
"AllowedHosts": "*"
}

View File

@@ -0,0 +1,30 @@
**/.classpath
**/.dockerignore
**/.env
**/.git
**/.gitignore
**/.project
**/.settings
**/.toolstarget
**/.vs
**/.vscode
**/*.*proj.user
**/*.dbmdl
**/*.jfm
**/azds.yaml
**/bin
**/charts
**/docker-compose*
**/Dockerfile*
**/node_modules
**/npm-debug.log
**/obj
**/secrets.dev.yaml
**/values.dev.yaml
LICENSE
README.md
!**/.gitignore
!.git/HEAD
!.git/config
!.git/packed-refs
!.git/refs/heads/**

484
yakovleva_yulia_lab_3/Buyer/.gitignore vendored Normal file
View File

@@ -0,0 +1,484 @@
## Ignore Visual Studio temporary files, build results, and
## files generated by popular Visual Studio add-ons.
##
## Get latest from `dotnet new gitignore`
# dotenv files
.env
# User-specific files
*.rsuser
*.suo
*.user
*.userosscache
*.sln.docstates
# User-specific files (MonoDevelop/Xamarin Studio)
*.userprefs
# Mono auto generated files
mono_crash.*
# Build results
[Dd]ebug/
[Dd]ebugPublic/
[Rr]elease/
[Rr]eleases/
x64/
x86/
[Ww][Ii][Nn]32/
[Aa][Rr][Mm]/
[Aa][Rr][Mm]64/
bld/
[Bb]in/
[Oo]bj/
[Ll]og/
[Ll]ogs/
# Visual Studio 2015/2017 cache/options directory
.vs/
# Uncomment if you have tasks that create the project's static files in wwwroot
#wwwroot/
# Visual Studio 2017 auto generated files
Generated\ Files/
# MSTest test Results
[Tt]est[Rr]esult*/
[Bb]uild[Ll]og.*
# NUnit
*.VisualState.xml
TestResult.xml
nunit-*.xml
# Build Results of an ATL Project
[Dd]ebugPS/
[Rr]eleasePS/
dlldata.c
# Benchmark Results
BenchmarkDotNet.Artifacts/
# .NET
project.lock.json
project.fragment.lock.json
artifacts/
# Tye
.tye/
# ASP.NET Scaffolding
ScaffoldingReadMe.txt
# StyleCop
StyleCopReport.xml
# Files built by Visual Studio
*_i.c
*_p.c
*_h.h
*.ilk
*.meta
*.obj
*.iobj
*.pch
*.pdb
*.ipdb
*.pgc
*.pgd
*.rsp
*.sbr
*.tlb
*.tli
*.tlh
*.tmp
*.tmp_proj
*_wpftmp.csproj
*.log
*.tlog
*.vspscc
*.vssscc
.builds
*.pidb
*.svclog
*.scc
# Chutzpah Test files
_Chutzpah*
# Visual C++ cache files
ipch/
*.aps
*.ncb
*.opendb
*.opensdf
*.sdf
*.cachefile
*.VC.db
*.VC.VC.opendb
# Visual Studio profiler
*.psess
*.vsp
*.vspx
*.sap
# Visual Studio Trace Files
*.e2e
# TFS 2012 Local Workspace
$tf/
# Guidance Automation Toolkit
*.gpState
# ReSharper is a .NET coding add-in
_ReSharper*/
*.[Rr]e[Ss]harper
*.DotSettings.user
# TeamCity is a build add-in
_TeamCity*
# DotCover is a Code Coverage Tool
*.dotCover
# AxoCover is a Code Coverage Tool
.axoCover/*
!.axoCover/settings.json
# Coverlet is a free, cross platform Code Coverage Tool
coverage*.json
coverage*.xml
coverage*.info
# Visual Studio code coverage results
*.coverage
*.coveragexml
# NCrunch
_NCrunch_*
.*crunch*.local.xml
nCrunchTemp_*
# MightyMoose
*.mm.*
AutoTest.Net/
# Web workbench (sass)
.sass-cache/
# Installshield output folder
[Ee]xpress/
# DocProject is a documentation generator add-in
DocProject/buildhelp/
DocProject/Help/*.HxT
DocProject/Help/*.HxC
DocProject/Help/*.hhc
DocProject/Help/*.hhk
DocProject/Help/*.hhp
DocProject/Help/Html2
DocProject/Help/html
# Click-Once directory
publish/
# Publish Web Output
*.[Pp]ublish.xml
*.azurePubxml
# Note: Comment the next line if you want to checkin your web deploy settings,
# but database connection strings (with potential passwords) will be unencrypted
*.pubxml
*.publishproj
# Microsoft Azure Web App publish settings. Comment the next line if you want to
# checkin your Azure Web App publish settings, but sensitive information contained
# in these scripts will be unencrypted
PublishScripts/
# NuGet Packages
*.nupkg
# NuGet Symbol Packages
*.snupkg
# The packages folder can be ignored because of Package Restore
**/[Pp]ackages/*
# except build/, which is used as an MSBuild target.
!**/[Pp]ackages/build/
# Uncomment if necessary however generally it will be regenerated when needed
#!**/[Pp]ackages/repositories.config
# NuGet v3's project.json files produces more ignorable files
*.nuget.props
*.nuget.targets
# Microsoft Azure Build Output
csx/
*.build.csdef
# Microsoft Azure Emulator
ecf/
rcf/
# Windows Store app package directories and files
AppPackages/
BundleArtifacts/
Package.StoreAssociation.xml
_pkginfo.txt
*.appx
*.appxbundle
*.appxupload
# Visual Studio cache files
# files ending in .cache can be ignored
*.[Cc]ache
# but keep track of directories ending in .cache
!?*.[Cc]ache/
# Others
ClientBin/
~$*
*~
*.dbmdl
*.dbproj.schemaview
*.jfm
*.pfx
*.publishsettings
orleans.codegen.cs
# Including strong name files can present a security risk
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
#*.snk
# Since there are multiple workflows, uncomment next line to ignore bower_components
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
#bower_components/
# RIA/Silverlight projects
Generated_Code/
# Backup & report files from converting an old project file
# to a newer Visual Studio version. Backup files are not needed,
# because we have git ;-)
_UpgradeReport_Files/
Backup*/
UpgradeLog*.XML
UpgradeLog*.htm
ServiceFabricBackup/
*.rptproj.bak
# SQL Server files
*.mdf
*.ldf
*.ndf
# Business Intelligence projects
*.rdl.data
*.bim.layout
*.bim_*.settings
*.rptproj.rsuser
*- [Bb]ackup.rdl
*- [Bb]ackup ([0-9]).rdl
*- [Bb]ackup ([0-9][0-9]).rdl
# Microsoft Fakes
FakesAssemblies/
# GhostDoc plugin setting file
*.GhostDoc.xml
# Node.js Tools for Visual Studio
.ntvs_analysis.dat
node_modules/
# Visual Studio 6 build log
*.plg
# Visual Studio 6 workspace options file
*.opt
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
*.vbw
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
*.vbp
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
*.dsw
*.dsp
# Visual Studio 6 technical files
*.ncb
*.aps
# Visual Studio LightSwitch build output
**/*.HTMLClient/GeneratedArtifacts
**/*.DesktopClient/GeneratedArtifacts
**/*.DesktopClient/ModelManifest.xml
**/*.Server/GeneratedArtifacts
**/*.Server/ModelManifest.xml
_Pvt_Extensions
# Paket dependency manager
.paket/paket.exe
paket-files/
# FAKE - F# Make
.fake/
# CodeRush personal settings
.cr/personal
# Python Tools for Visual Studio (PTVS)
__pycache__/
*.pyc
# Cake - Uncomment if you are using it
# tools/**
# !tools/packages.config
# Tabs Studio
*.tss
# Telerik's JustMock configuration file
*.jmconfig
# BizTalk build output
*.btp.cs
*.btm.cs
*.odx.cs
*.xsd.cs
# OpenCover UI analysis results
OpenCover/
# Azure Stream Analytics local run output
ASALocalRun/
# MSBuild Binary and Structured Log
*.binlog
# NVidia Nsight GPU debugger configuration file
*.nvuser
# MFractors (Xamarin productivity tool) working folder
.mfractor/
# Local History for Visual Studio
.localhistory/
# Visual Studio History (VSHistory) files
.vshistory/
# BeatPulse healthcheck temp database
healthchecksdb
# Backup folder for Package Reference Convert tool in Visual Studio 2017
MigrationBackup/
# Ionide (cross platform F# VS Code tools) working folder
.ionide/
# Fody - auto-generated XML schema
FodyWeavers.xsd
# VS Code files for those working on multiple tools
.vscode/*
!.vscode/settings.json
!.vscode/tasks.json
!.vscode/launch.json
!.vscode/extensions.json
*.code-workspace
# Local History for Visual Studio Code
.history/
# Windows Installer files from build outputs
*.cab
*.msi
*.msix
*.msm
*.msp
# JetBrains Rider
*.sln.iml
.idea
##
## Visual studio for Mac
##
# globs
Makefile.in
*.userprefs
*.usertasks
config.make
config.status
aclocal.m4
install-sh
autom4te.cache/
*.tar.gz
tarballs/
test-results/
# Mac bundle stuff
*.dmg
*.app
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
# General
.DS_Store
.AppleDouble
.LSOverride
# Icon must end with two \r
Icon
# Thumbnails
._*
# Files that might appear in the root of a volume
.DocumentRevisions-V100
.fseventsd
.Spotlight-V100
.TemporaryItems
.Trashes
.VolumeIcon.icns
.com.apple.timemachine.donotpresent
# Directories potentially created on remote AFP share
.AppleDB
.AppleDesktop
Network Trash Folder
Temporary Items
.apdisk
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
# Windows thumbnail cache files
Thumbs.db
ehthumbs.db
ehthumbs_vista.db
# Dump file
*.stackdump
# Folder config file
[Dd]esktop.ini
# Recycle Bin used on file shares
$RECYCLE.BIN/
# Windows Installer files
*.cab
*.msi
*.msix
*.msm
*.msp
# Windows shortcuts
*.lnk
# Vim temporary swap files
*.swp

View File

@@ -0,0 +1,25 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.9.34728.123
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "Buyer", "Buyer\Buyer.csproj", "{3845B5A1-0A3C-427B-9659-67590EEDB4B6}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{3845B5A1-0A3C-427B-9659-67590EEDB4B6}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{3845B5A1-0A3C-427B-9659-67590EEDB4B6}.Debug|Any CPU.Build.0 = Debug|Any CPU
{3845B5A1-0A3C-427B-9659-67590EEDB4B6}.Release|Any CPU.ActiveCfg = Release|Any CPU
{3845B5A1-0A3C-427B-9659-67590EEDB4B6}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ExtensibilityGlobals) = postSolution
SolutionGuid = {2074E7E7-D084-4F69-AED8-8DD2830D2A68}
EndGlobalSection
EndGlobal

View File

@@ -0,0 +1,22 @@
<Project Sdk="Microsoft.NET.Sdk.Web">
<PropertyGroup>
<TargetFramework>net8.0</TargetFramework>
<Nullable>enable</Nullable>
<ImplicitUsings>enable</ImplicitUsings>
<UserSecretsId>b3476a56-c45e-4a63-be32-5987c93f46b1</UserSecretsId>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.EntityFrameworkCore" Version="8.0.8" />
<PackageReference Include="Microsoft.EntityFrameworkCore.Tools" Version="8.0.8">
<PrivateAssets>all</PrivateAssets>
<IncludeAssets>runtime; build; native; contentfiles; analyzers; buildtransitive</IncludeAssets>
</PackageReference>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.19.6" />
<PackageReference Include="Npgsql.EntityFrameworkCore.PostgreSQL" Version="8.0.8" />
<PackageReference Include="Swashbuckle.AspNetCore" Version="6.4.0" />
</ItemGroup>
</Project>

View File

@@ -0,0 +1,27 @@
<Project Sdk="Microsoft.NET.Sdk.Web">
<PropertyGroup>
<TargetFramework>net8.0</TargetFramework>
<Nullable>enable</Nullable>
<ImplicitUsings>enable</ImplicitUsings>
<UserSecretsId>f9482e07-2725-46f1-9b04-c34d26c4f674</UserSecretsId>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.EntityFrameworkCore" Version="8.0.8" />
<PackageReference Include="Microsoft.EntityFrameworkCore.SqlServer" Version="8.0.8" />
<PackageReference Include="Microsoft.EntityFrameworkCore.Tools" Version="8.0.8">
<PrivateAssets>all</PrivateAssets>
<IncludeAssets>runtime; build; native; contentfiles; analyzers; buildtransitive</IncludeAssets>
</PackageReference>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.19.6" />
<PackageReference Include="Npgsql.EntityFrameworkCore.PostgreSQL" Version="8.0.8" />
<PackageReference Include="Swashbuckle.AspNetCore" Version="6.4.0" />
</ItemGroup>
<ItemGroup>
<Folder Include="Controllers\" />
</ItemGroup>
</Project>

View File

@@ -0,0 +1,6 @@
@Administrator_HostAddress = http://localhost:5015
GET {{Administrator_HostAddress}}/weatherforecast/
Accept: application/json
###

View File

@@ -0,0 +1,105 @@
using Microsoft.AspNetCore.Mvc;
using Microsoft.EntityFrameworkCore;
using Microsoft.Extensions.Logging;
using System.Collections.Generic;
using System.Linq;
using System.Threading.Tasks;
using Buyer.DataBase;
using Buyer.DataBase.DBModels;
namespace Buyer.Controllers
{
[ApiController]
[Route("Buyers/")]
public class BuyerController : Controller
{
private readonly BuyerDataBaseContext _dbContext;
public BuyerController(BuyerDataBaseContext dbContext)
{
_dbContext = dbContext;
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpGet]
public async Task<ActionResult<IEnumerable<Buyers>>> GetAllBuyers()
{
return await _dbContext.Buyers.ToListAsync();
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><> ID
[HttpGet("{id}")]
public async Task<ActionResult<Buyers>> GetBuyer(int id)
{
var Buyer = await _dbContext.Buyers.FindAsync(id);
if (Buyer == null)
{
return NotFound();
}
return Buyer;
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpPost]
public async Task<ActionResult<Buyers>> CreateBuyer(Buyers Buyer)
{
_dbContext.Buyers.Add(Buyer);
await _dbContext.SaveChangesAsync();
return CreatedAtAction(nameof(GetBuyer), new { id = Buyer.Id }, Buyer);
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpPut("{id}")]
public async Task<IActionResult> UpdateBuyer(int id, Buyers Buyer)
{
if (id != Buyer.Id)
{
return BadRequest();
}
_dbContext.Entry(Buyer).State = EntityState.Modified;
try
{
await _dbContext.SaveChangesAsync();
}
catch (DbUpdateConcurrencyException)
{
if (!BuyerExists(id))
{
return NotFound();
}
else
{
throw;
}
}
return NoContent();
}
// <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD> <20><><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD><EFBFBD>
[HttpDelete("{id}")]
public async Task<IActionResult> DeleteBuyer(int id)
{
var Buyer = await _dbContext.Buyers.FindAsync(id);
if (Buyer == null)
{
return NotFound();
}
_dbContext.Buyers.Remove(Buyer);
await _dbContext.SaveChangesAsync();
return NoContent();
}
private bool BuyerExists(int id)
{
return _dbContext.Buyers.Any(e => e.Id == id);
}
}
}

View File

@@ -0,0 +1,20 @@
using Buyer.DataBase.DBModels;
using Microsoft.EntityFrameworkCore;
namespace Buyer.DataBase
{
public class BuyerDataBaseContext : DbContext
{
public BuyerDataBaseContext(DbContextOptions<BuyerDataBaseContext> options)
: base(options)
{
}
public DbSet<Buyers> Buyers { get; set; }
protected override void OnModelCreating(ModelBuilder modelBuilder)
{
modelBuilder.Entity<Buyers>().ToTable("Buyers");
}
}
}

View File

@@ -0,0 +1,18 @@
using System.ComponentModel.DataAnnotations;
namespace Buyer.DataBase.DBModels
{
public class Buyers
{
[Key]
public int Id { get; set; }
[Required]
[StringLength(50)]
public string FirstName { get; set; }
[StringLength(50)]
public string SecondName { get; set; }
}
}

View File

@@ -0,0 +1,27 @@
#See https://aka.ms/customizecontainer to learn how to customize your debug container and how Visual Studio uses this Dockerfile to build your images for faster debugging.
FROM mcr.microsoft.com/dotnet/aspnet:8.0 AS base
USER app
WORKDIR /app
EXPOSE 8080
EXPOSE 8081
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
COPY ["Buyer/Buyer.csproj", "Buyer/"]
RUN dotnet restore "./Buyer/Buyer.csproj"
COPY . .
WORKDIR "/src/Buyer"
RUN dotnet build "./Buyer.csproj" -c $BUILD_CONFIGURATION -o /app/build
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
RUN dotnet publish "./Buyer.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .
ENTRYPOINT ["dotnet", "Buyer.dll"]
CMD dotnet ef database update --no-build && dotnet BuyerService.dll

View File

@@ -0,0 +1,10 @@
var host = CreateHostBuilder(args).Build();
host.Run();
static IHostBuilder CreateHostBuilder(string[] args) =>
Host.CreateDefaultBuilder(args)
.ConfigureWebHostDefaults(webBuilder =>
{
webBuilder.UseStartup<Startup>();
});

View File

@@ -0,0 +1,42 @@
{
"profiles": {
"http": {
"commandName": "Project",
"launchBrowser": true,
"launchUrl": "swagger",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
},
"dotnetRunMessages": true,
"applicationUrl": "http://localhost:5015"
},
"IIS Express": {
"commandName": "IISExpress",
"launchBrowser": true,
"launchUrl": "swagger",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"Container (Dockerfile)": {
"commandName": "Docker",
"launchBrowser": true,
"launchUrl": "{Scheme}://{ServiceHost}:{ServicePort}/swagger",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development",
"ASPNETCORE_URLS": "http://+:80"
},
"publishAllPorts": true,
"useSSL": false
}
},
"$schema": "http://json.schemastore.org/launchsettings.json",
"iisSettings": {
"windowsAuthentication": false,
"anonymousAuthentication": true,
"iisExpress": {
"applicationUrl": "http://localhost:60492",
"sslPort": 0
}
}
}

View File

@@ -0,0 +1,50 @@
using Microsoft.EntityFrameworkCore;
using Buyer.DataBase;
public class Startup
{
public Startup(IConfiguration configuration)
{
Configuration = configuration;
}
public IConfiguration Configuration { get; }
public void ConfigureServices(IServiceCollection services)
{
services.AddControllers();
services.AddDbContext<BuyerDataBaseContext>(options =>
options.UseNpgsql(Configuration.GetConnectionString("BuyerDatabase")));
services.AddSwaggerGen();
}
public void Configure(IApplicationBuilder app, IWebHostEnvironment env, IServiceScopeFactory serviceScopeFactory)
{
if (env.IsDevelopment())
{
app.UseDeveloperExceptionPage();
}
app.UseHttpsRedirection();
app.UseRouting();
app.UseAuthorization();
using (var scope = serviceScopeFactory.CreateScope())
{
var context = scope.ServiceProvider.GetRequiredService<BuyerDataBaseContext>();
context.Database.Migrate();
}
app.UseEndpoints(endpoints =>
{
endpoints.MapControllers();
});
app.UseSwagger();
app.UseSwaggerUI();
}
}

View File

@@ -0,0 +1,8 @@
{
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
}
}

View File

@@ -0,0 +1,12 @@
{
"ConnectionStrings": {
"BuyerDatabase": "Host=postgresdb;Database=buyer;Username=postgres;Password=123"
},
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
},
"AllowedHosts": "*"
}

View File

@@ -0,0 +1,45 @@
# Лабораторная работа 3 - REST API, Gateway и синхронный обмен между микросервисами
## Описание
Были разработаны два микросервиса с простыми CRUD операциями и реализован синхронный обмен сообщениями между ними.
Тема дипломной работы: Разработка системы для автоматизации процессов управления компьютерным клубом на платформе .Net
На основе темы были созданны сущности:
Администратор:
- Идентификатор
- Имя
- Фамилия
- Идентификатор клиента (связь "один ко многим")
Клиент:
- Идентификатор
- Имя
- Фамилия
Сервис Аминистратора имеет возможность управлять списком Клиентов. При создании Администратора можно указать идентификатор Клиента,
после чего идет запрос на сервис Клиента с целью узнать существует ли привязываемый Клиент. реализовано с помощью Web-API, интерфейс Swagger,
база данных PostgreSQL. Каждый сервис использует свою базу данных.
## Запуск
1. Запустить Docker
2. Открыть консоль, перейти в папку, где хранится docker-compose.yml
3. Выполнить команду:
```
docker compose up --build
```
## Результат
Выполняем команду:
```
docker compose ps
```
Видим, что контейнеры успешно подняты.
Заходим на http://localhost:32774/swagger/index.html и http://localhost:32773/swagger/index.html - создаем администраторов и клиентов через Swagger.
Видим, что клиенты успешно созданны.
Создаем администраторов с ссылкой на клиента.
## Отчет
Работоспособность: [видео](https://vk.com/video372869030_456239953?list=ln-KBJP1uxkWkQNlqzohl)

View File

@@ -0,0 +1,50 @@
services:
postgresdb:
image: postgres:latest
container_name: postgres_container
environment:
POSTGRES_USER: postgres
POSTGRES_PASSWORD: 123
POSTGRES_DB: administrator
PGDATA: /var/lib/postgresql/data/pgdata
ports:
- "5430:5432" # Проброс порта для PostgreSQL
volumes:
- ./database.sql:/docker-entrypoint-initdb.d/database.sql # Инициализация базы данных
restart: always
networks:
- desision-making-system-network
administrator-service:
container_name: administrator-service
depends_on:
- postgresdb # Заивисмость от запуска Posgresql
build:
context: ./Administrator
dockerfile: ./Administrator/Dockerfile
environment:
ASPNETCORE_ENVIRONMENT: "Development" # Настраиваем среду разработки
ASPNETCORE_URLS: "http://+:8080"
ports:
- "32773:8080" # Проброс порта 8080
networks:
- desision-making-system-network
buyer-service:
container_name: buyer-service
depends_on:
- postgresdb # Заивисмость от запуска Posgresql
build:
context: ./Buyer
dockerfile: ./Buyer/Dockerfile
environment:
ASPNETCORE_ENVIRONMENT: "Development" # Настраиваем среду разработки
ASPNETCORE_URLS: "http://+:8080"
ports:
- "32774:8080" # Проброс порта
networks:
- desision-making-system-network
networks:
desision-making-system-network:
driver: bridge

View File

@@ -1,9 +0,0 @@
# Переменные для базы данных Stream
DB_HOST=postgres-db
DB_PORT=5432
DB_USER=postgres
DB_PASSWORD=password
DB_STREAM_NAME=streamdb
# Переменные для базы данных Message
DB_MESSAGE_NAME=messagedb

View File

@@ -1,90 +0,0 @@
# Отчет по лабораторной работе №3
## Поставленные задачи
1. Создать 2 микросервиса, реализующих CRUD на связанных сущностях.
2. Реализовать механизм синхронного обмена сообщениями между микросервисами.
3. Реализовать шлюз на основе прозрачного прокси-сервера nginx.
## Предметная область
Проект основан на системе управления стримами (трансляциями) и сообщениями.
Каждый стрим представляет собой событие с такими параметрами, как название,
время начала и окончания (окончание может быть null).
Сообщения связаны с конкретными стримами и содержат следующие атрибуты: содержание,
дата публикации, идентификатор стрима, к которому имеет отношение комментарий. Связь между сущностями один ко многим
Два микросервиса выполняют раздельные функции: один управляет стримами, другой — сообщениями.
Взаимодействие между ними происходит через HTTP-запросы.
## Запуск работы
1. Убедиться, что установлены необходимые технологии:
- Docker: Платформа для контейнеризации приложений.
- Docker Compose: Инструмент для запуска многоконтейнерных приложений на основе `docker-compose.yaml`. Обычно поставляется вместе с Docker. Чтобы проверить, установлена ли утилита, нужно запустить команду:
```bash
docker-compose --version
```
2. В директории, где находится файл `docker-compose.yaml`, выполнить следующую команду для запуска всех сервисов:
```bash
docker-compose up --build
```
Эта команда сначала выполнит сборку, а затем запустит контейнеры.
3. После успешного запуска можно перейти к Swagger UI:
- Message Swagger UI: [http://localhost/message-service/swagger/index.html](http://localhost/message-service/swagger/index.html#/).
- Stream Swagger UI: [http://localhost/stream-service/swagger/index.html](http://localhost/message-service/swagger/index.html#/).
4. Stream сервис предоставляет следующие эндпоинты:
- GET /streams — получить все стримы
- POST /streams — создать новый стрим
- GET /streams/{id} — получить стрим по ID
- PUT /streams/{id} — обновить стрим по ID
- DELETE /streams/{id} — удалить стрим по ID
Message сервис предоставляет:
- GET /messages — получить все сообщения
- POST /messages — создать новое сообщение
- GET /messages/{id} — получить сообщение по ID
- GET /messages/all/{streamId} — получить все сообщения, которые относятся к streamId
- PUT /messages/{id} — обновить сообщение по ID
- DELETE /messages/{id} — удалить сообщение по ID
## Технологии
1. Golang: основной язык программирования для микросервисов.
2. PostgreSQL: база данных для хранения данных о стримах и сообщениях.
3. Docker & Docker Compose: для контейнеризации сервисов и удобного развертывания.
4. Swagger UI: для документации и тестирования API.
5. Nginx: для проксирования запросов между клиентом и микросервисами.
6. Gorilla Mux: маршрутизация запросов в Go.
7. Zerolog: логирование ошибок и действий.
## Архитектура
Проект реализован на основе микросервисной архитектуры. Каждый сервис (Stream и Message)
использует свою собственную базу данных (всего их две и в каждой БД по одной таблице) и предоставляет
свои эндпоинты для работы с данными. Используются Docker и Docker Compose для управления окружением и
запуска сервисов.
## Ход работы
1. **Микросервисная архитектура**: Проект разделен на два микросервиса: один для управления стримами,
другой — для управления сообщениями. Каждый сервис имеет свой собственный набор функций, таблицы
в базе данных и собственные эндпоинты для взаимодействия с клиентом.
2. **Реализация взаимодействия между микросервисами**: Stream-сервис предоставляет заголовки для стримов,
которые затем использует Message-сервис для работы с сообщениями, привязанными к стримам.
Взаимодействие реализовано через HTTP-запросы между сервисами.
3. **Использование Swagger**: Для каждого сервиса настроена Swagger-документация. Это позволяет
визуализировать и тестировать API прямо в браузере, что упрощает разработку и тестирование.
4. **Докеризация проекта**: Все микросервисы и вспомогательные сервисы, такие как база данных и Nginx,
запускаются через Docker Compose. Это упрощает управление зависимостями и разворачивание проекта.
В коде присутствуют пояснительные комментарии.
## Демонстрационное видео
Видеозапись доступна по адресу: [https://vk.com/video193898050_456240870](https://vk.com/video193898050_456240870)

View File

@@ -1,64 +0,0 @@
services:
# Общая база данных для обоих сервисов
postgres-db:
image: postgres:13-alpine
environment:
POSTGRES_USER: ${DB_USER} # Общий пользователь базы данных
POSTGRES_PASSWORD: ${DB_PASSWORD} # Пароль для базы данных
POSTGRES_DB: ${DB_STREAM_NAME} # База данных для сервиса Stream
ports:
- "5432:5432" # Порт базы данных
volumes:
- postgres-db-data:/var/lib/postgresql/data
healthcheck:
test: ["CMD-SHELL", "pg_isready -U ${DB_USER}"]
interval: 20s
timeout: 20s
retries: 10
networks:
- network
# Сервис Stream
stream-service:
build: ./streamService
env_file:
- .env
networks:
- network
ports:
- "8000:8000"
depends_on:
postgres-db:
condition: service_healthy
# Сервис Message
message-service:
build: ./messageService
env_file:
- .env
networks:
- network
ports:
- "8080:8080"
depends_on:
postgres-db:
condition: service_healthy
nginx:
image: nginx
ports:
- "80:80"
volumes:
- ./nginx.conf:/etc/nginx/nginx.conf
networks:
- network
depends_on:
- stream-service
- message-service
networks:
network:
driver: bridge
volumes:
postgres-db-data:

View File

@@ -1,14 +0,0 @@
FROM golang:1.23-alpine
WORKDIR /app
COPY go.mod go.sum ./
RUN go mod download
COPY . .
RUN go build -o message_main ./cmd/message_main.go
EXPOSE 8080
CMD ["./message_main"]

View File

@@ -1,64 +0,0 @@
package main
import (
"github.com/gorilla/mux"
"github.com/rs/zerolog"
httpSwagger "github.com/swaggo/http-swagger"
"log"
_ "messageService/docs"
"messageService/internal/app/database"
"messageService/internal/app/handlers"
"messageService/internal/app/repositories"
"messageService/internal/app/services"
"net/http"
"os"
"time"
)
func main() {
// Настройка логирования
logFile, err := os.OpenFile("app.log", os.O_CREATE|os.O_WRONLY|os.O_APPEND, 0666)
if err != nil {
log.Fatalf("Could not open log file: %v", err)
}
defer func(logFile *os.File) {
err := logFile.Close()
if err != nil {
}
}(logFile)
zerolog.TimeFieldFormat = zerolog.TimeFormatUnix
logger := zerolog.New(logFile).With().Timestamp().Logger()
// Инициализация базы данных
db, err := database.InitMessageDB()
if err != nil {
log.Fatalf("Could not connect to the database: %v", err)
}
// Инициализация репозитория и сервиса
messageRepo := repositories.NewMessageRepository(db)
messageService := services.NewMessageService(messageRepo)
// Инициализация маршрутизатора
router := mux.NewRouter()
// Создаем StreamClient
streamClient := services.NewStreamClient("http://stream-service:8000", 5*time.Second)
// Регистрация хендлеров
handlers.RegisterMessageRoutes(router, messageService, streamClient)
// Swagger
router.HandleFunc("/doc.json", func(w http.ResponseWriter, r *http.Request) {
http.ServeFile(w, r, "docs/doc.json")
}).Methods("GET")
// Route for Swagger UI
router.PathPrefix("/swagger/").Handler(httpSwagger.WrapHandler)
// Запуск сервера
logger.Info().Msg("Server started at http://localhost:8080")
logger.Fatal().Err(http.ListenAndServe(":8080", router)).Msg("Server crashed")
}

View File

@@ -1,244 +0,0 @@
{
"swagger": "2.0",
"info": {
"contact": {},
"version": "",
"title": ""
},
"paths": {
"/message-service/messages": {
"get": {
"description": "Возвращает список всех сообщений",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить все сообщения",
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.Message"
}
}
}
}
},
"post": {
"description": "Создает новое сообщение",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Создать сообщение",
"parameters": [
{
"description": "Данные сообщения",
"name": "message",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Message"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
}
},
"/message-service/messages/all/{streamId}": {
"get": {
"description": "Возвращает список сообщений с указанным StreamID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить список сообщений по StreamID",
"parameters": [
{
"type": "integer",
"description": "StreamID сообщения",
"name": "streamId",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.MessageResponse"
}
}
}
}
}
},
"/message-service/messages/{id}": {
"get": {
"description": "Возвращает сообщение с указанным ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить сообщение по ID",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
},
"put": {
"description": "Обновляет данные сообщения по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Обновить данные сообщения",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
},
{
"description": "Обновленные данные сообщения",
"name": "message",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Message"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
},
"delete": {
"description": "Удаляет сообщение по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Удалить сообщение",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"204": {
"description": "No Content"
}
}
}
}
},
"definitions": {
"models.Message": {
"description": "Сообщение",
"type": "object",
"properties": {
"content": {
"description": "Содержание комментария",
"type": "string"
},
"created_at": {
"description": "Время отправления комментария",
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"id": {
"description": "Идентификатор сообщения",
"type": "integer"
},
"stream_id": {
"description": "Идентификатор стрима",
"type": "integer"
}
}
},
"models.MessageResponse": {
"type": "object",
"properties": {
"content": {
"type": "string"
},
"created_at": {
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"id": {
"type": "integer"
},
"stream_title": {
"type": "string"
}
}
}
}
}

View File

@@ -1,269 +0,0 @@
// Package docs Code generated by swaggo/swag. DO NOT EDIT
package docs
import "github.com/swaggo/swag"
const docTemplate = `{
"schemes": {{ marshal .Schemes }},
"swagger": "2.0",
"info": {
"description": "{{escape .Description}}",
"title": "{{.Title}}",
"contact": {},
"version": "{{.Version}}"
},
"host": "{{.Host}}",
"basePath": "{{.BasePath}}",
"paths": {
"/message-service/messages": {
"get": {
"description": "Возвращает список всех сообщений",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить все сообщения",
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.Message"
}
}
}
}
},
"post": {
"description": "Создает новое сообщение",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Создать сообщение",
"parameters": [
{
"description": "Данные сообщения",
"name": "message",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Message"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
}
},
"/message-service/messages/all/{streamId}": {
"get": {
"description": "Возвращает список сообщений с указанным StreamID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить список сообщений по StreamID",
"parameters": [
{
"type": "integer",
"description": "StreamID сообщения",
"name": "streamId",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.MessageResponse"
}
}
}
}
}
},
"/message-service/messages/{id}": {
"get": {
"description": "Возвращает сообщение с указанным ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить сообщение по ID",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
},
"put": {
"description": "Обновляет данные сообщения по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Обновить данные сообщения",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
},
{
"description": "Обновленные данные сообщения",
"name": "message",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Message"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
},
"delete": {
"description": "Удаляет сообщение по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Удалить сообщение",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"204": {
"description": "No Content"
}
}
}
}
},
"definitions": {
"models.Message": {
"description": "Сообщение",
"type": "object",
"properties": {
"content": {
"description": "Содержание комментария",
"type": "string"
},
"created_at": {
"description": "Время отправления комментария",
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"id": {
"description": "Идентификатор сообщения",
"type": "integer"
},
"stream_id": {
"description": "Идентификатор стрима",
"type": "integer"
}
}
},
"models.MessageResponse": {
"type": "object",
"properties": {
"content": {
"type": "string"
},
"created_at": {
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"id": {
"type": "integer"
},
"stream_title": {
"type": "string"
}
}
}
}
}`
// SwaggerInfo holds exported Swagger Info so clients can modify it
var SwaggerInfo = &swag.Spec{
Version: "",
Host: "",
BasePath: "",
Schemes: []string{},
Title: "",
Description: "",
InfoInstanceName: "swagger",
SwaggerTemplate: docTemplate,
}
func init() {
swag.Register(SwaggerInfo.InstanceName(), SwaggerInfo)
}

View File

@@ -1,244 +0,0 @@
{
"swagger": "2.0",
"info": {
"contact": {},
"version": "",
"title": ""
},
"paths": {
"/messages": {
"get": {
"description": "Возвращает список всех сообщений",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить все сообщения",
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.Message"
}
}
}
}
},
"post": {
"description": "Создает новое сообщение",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Создать сообщение",
"parameters": [
{
"description": "Данные сообщения",
"name": "message",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Message"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
}
},
"/messages/all/{streamId}": {
"get": {
"description": "Возвращает список сообщений с указанным StreamID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить список сообщений по StreamID",
"parameters": [
{
"type": "integer",
"description": "StreamID сообщения",
"name": "streamId",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.MessageResponse"
}
}
}
}
}
},
"/messages/{id}": {
"get": {
"description": "Возвращает сообщение с указанным ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Получить сообщение по ID",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
},
"put": {
"description": "Обновляет данные сообщения по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Обновить данные сообщения",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
},
{
"description": "Обновленные данные сообщения",
"name": "message",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Message"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Message"
}
}
}
},
"delete": {
"description": "Удаляет сообщение по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"messages"
],
"summary": "Удалить сообщение",
"parameters": [
{
"type": "integer",
"description": "ID сообщения",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"204": {
"description": "No Content"
}
}
}
}
},
"definitions": {
"models.Message": {
"description": "Сообщение",
"type": "object",
"properties": {
"content": {
"description": "Содержание комментария",
"type": "string"
},
"created_at": {
"description": "Время отправления комментария",
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"id": {
"description": "Идентификатор сообщения",
"type": "integer"
},
"stream_id": {
"description": "Идентификатор стрима",
"type": "integer"
}
}
},
"models.MessageResponse": {
"type": "object",
"properties": {
"content": {
"type": "string"
},
"created_at": {
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"id": {
"type": "integer"
},
"stream_title": {
"type": "string"
}
}
}
}
}

View File

@@ -1,162 +0,0 @@
definitions:
models.Message:
description: Сообщение
properties:
content:
description: Содержание комментария
type: string
created_at:
description: Время отправления комментария
example: "2024-10-04T14:48:00Z"
type: string
id:
description: Идентификатор сообщения
type: integer
stream_id:
description: Идентификатор стрима
type: integer
type: object
models.MessageResponse:
properties:
content:
type: string
created_at:
example: "2024-10-04T14:48:00Z"
type: string
id:
type: integer
stream_title:
type: string
type: object
info:
contact: { }
version: '2.0'
title: 'API'
paths:
/messages:
get:
consumes:
- application/json
description: Возвращает список всех сообщений
produces:
- application/json
responses:
"200":
description: OK
schema:
items:
$ref: '#/definitions/models.Message'
type: array
summary: Получить все сообщения
tags:
- messages
post:
consumes:
- application/json
description: Создает новое сообщение
parameters:
- description: Данные сообщения
in: body
name: message
required: true
schema:
$ref: '#/definitions/models.Message'
produces:
- application/json
responses:
"200":
description: OK
schema:
$ref: '#/definitions/models.Message'
summary: Создать сообщение
tags:
- messages
/messages/{id}:
delete:
consumes:
- application/json
description: Удаляет сообщение по ID
parameters:
- description: ID сообщения
in: path
name: id
required: true
type: integer
produces:
- application/json
responses:
"204":
description: No Content
summary: Удалить сообщение
tags:
- messages
get:
consumes:
- application/json
description: Возвращает сообщение с указанным ID
parameters:
- description: ID сообщения
in: path
name: id
required: true
type: integer
produces:
- application/json
responses:
"200":
description: OK
schema:
$ref: '#/definitions/models.Message'
summary: Получить сообщение по ID
tags:
- messages
put:
consumes:
- application/json
description: Обновляет данные сообщения по ID
parameters:
- description: ID сообщения
in: path
name: id
required: true
type: integer
- description: Обновленные данные сообщения
in: body
name: message
required: true
schema:
$ref: '#/definitions/models.Message'
produces:
- application/json
responses:
"200":
description: OK
schema:
$ref: '#/definitions/models.Message'
summary: Обновить данные сообщения
tags:
- messages
/messages/all/{streamId}:
get:
consumes:
- application/json
description: Возвращает список сообщений с указанным StreamID
parameters:
- description: StreamID сообщения
in: path
name: streamId
required: true
type: integer
produces:
- application/json
responses:
"200":
description: OK
schema:
items:
$ref: '#/definitions/models.MessageResponse'
type: array
summary: Получить список сообщений по StreamID
tags:
- messages
swagger: "2.0"

View File

@@ -1,39 +0,0 @@
module messageService
go 1.23.2
require (
github.com/gorilla/mux v1.8.1
github.com/rs/zerolog v1.33.0
github.com/swaggo/http-swagger v1.3.4
github.com/swaggo/swag v1.8.1
gorm.io/driver/postgres v1.5.9
gorm.io/gorm v1.25.12
)
require (
github.com/KyleBanks/depth v1.2.1 // indirect
github.com/go-openapi/jsonpointer v0.19.5 // indirect
github.com/go-openapi/jsonreference v0.20.0 // indirect
github.com/go-openapi/spec v0.20.6 // indirect
github.com/go-openapi/swag v0.19.15 // indirect
github.com/jackc/pgpassfile v1.0.0 // indirect
github.com/jackc/pgservicefile v0.0.0-20221227161230-091c0ba34f0a // indirect
github.com/jackc/pgx/v5 v5.5.5 // indirect
github.com/jackc/puddle/v2 v2.2.1 // indirect
github.com/jinzhu/inflection v1.0.0 // indirect
github.com/jinzhu/now v1.1.5 // indirect
github.com/josharian/intern v1.0.0 // indirect
github.com/mailru/easyjson v0.7.6 // indirect
github.com/mattn/go-colorable v0.1.13 // indirect
github.com/mattn/go-isatty v0.0.19 // indirect
github.com/rogpeppe/go-internal v1.13.1 // indirect
github.com/swaggo/files v0.0.0-20220610200504-28940afbdbfe // indirect
golang.org/x/crypto v0.24.0 // indirect
golang.org/x/net v0.26.0 // indirect
golang.org/x/sync v0.7.0 // indirect
golang.org/x/sys v0.21.0 // indirect
golang.org/x/text v0.16.0 // indirect
golang.org/x/tools v0.22.0 // indirect
gopkg.in/yaml.v2 v2.4.0 // indirect
)

View File

@@ -1,59 +0,0 @@
package database
import (
"fmt"
"gorm.io/driver/postgres"
"gorm.io/gorm"
"gorm.io/gorm/logger"
"messageService/internal/app/models"
"os"
)
// InitMessageDB инициализирует подключение к базе данных для микросервиса Message
func InitMessageDB() (*gorm.DB, error) {
host := os.Getenv("DB_HOST")
port := os.Getenv("DB_PORT")
user := os.Getenv("DB_USER")
password := os.Getenv("DB_PASSWORD")
dbname := os.Getenv("DB_MESSAGE_NAME")
// Строка подключения без указания имени базы данных
dsn := fmt.Sprintf("host=%s user=%s password=%s port=%s sslmode=disable", host, user, password, port)
// Подключаемся к PostgreSQL без указания базы данных
db, err := gorm.Open(postgres.Open(dsn), &gorm.Config{
Logger: logger.Default.LogMode(logger.Info), // Включаем логирование для отладки
})
if err != nil {
return nil, err
}
// Проверяем существование базы данных
var exists bool
if err := db.Raw("SELECT EXISTS(SELECT 1 FROM pg_database WHERE datname = ?)", dbname).Scan(&exists).Error; err != nil {
return nil, err
}
// Если база данных не существует, создаем ее
if !exists {
if err := db.Exec(fmt.Sprintf("CREATE DATABASE %s;", dbname)).Error; err != nil {
return nil, err
}
}
// Подключаемся к только что созданной базе данных
dsn = fmt.Sprintf("host=%s user=%s password=%s dbname=%s port=%s sslmode=disable", host, user, password, dbname, port)
db, err = gorm.Open(postgres.Open(dsn), &gorm.Config{
Logger: logger.Default.LogMode(logger.Info),
})
if err != nil {
return nil, err
}
// Автоматическая миграция для Message
if err := db.AutoMigrate(&models.Message{}); err != nil {
return nil, err
}
return db, nil
}

View File

@@ -1,244 +0,0 @@
package handlers
import (
"encoding/json"
"log"
"messageService/internal/app/models"
"messageService/internal/app/services"
"net/http"
"strconv"
"github.com/gorilla/mux"
)
func RegisterMessageRoutes(router *mux.Router, svc services.MessageService, streamSvc services.StreamClient) {
router.HandleFunc("/messages", GetAllMessages(svc, streamSvc)).Methods("GET")
router.HandleFunc("/messages/{id}", GetMessage(svc, streamSvc)).Methods("GET")
router.HandleFunc("/messages/all/{streamId}", GetMessagesByStreamID(svc, streamSvc)).Methods("GET")
router.HandleFunc("/messages", CreateMessage(svc)).Methods("POST")
router.HandleFunc("/messages/{id}", UpdateMessage(svc)).Methods("PUT")
router.HandleFunc("/messages/{id}", DeleteMessage(svc)).Methods("DELETE")
}
// GetAllMessages godoc
// @Summary Получить все сообщения
// @Description Возвращает список всех сообщений
// @Tags messages
// @Accept json
// @Produce json
// @Success 200 {array} models.Message
// @Router /messages [get]
func GetAllMessages(svc services.MessageService, streamSvc services.StreamClient) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
messages, err := svc.GetAllMessages()
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
return
}
var response []models.MessageResponse
for _, message := range messages {
stream, err := streamSvc.GetStreamTitleByID(message.StreamID)
log.Printf("Result: %s", stream)
if err != nil {
http.Error(w, "Stream not found", http.StatusNotFound)
return
}
response = append(response, models.MessageResponse{
ID: message.ID,
Content: message.Content,
StreamTitle: stream,
CreatedAt: message.CreatedAt,
})
}
err = json.NewEncoder(w).Encode(response)
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
}
}
}
// GetMessagesByStreamID godoc
// @Summary Получить список сообщений по StreamID
// @Description Возвращает список сообщений с указанным StreamID
// @Tags messages
// @Accept json
// @Produce json
// @Param streamId path int true "StreamID сообщения"
// @Success 200 {array} models.MessageResponse
// @Router /messages/all/{streamId} [get]
func GetMessagesByStreamID(svc services.MessageService, streamSvc services.StreamClient) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
idStr := mux.Vars(r)["streamId"]
id, err := strconv.Atoi(idStr)
if err != nil {
http.Error(w, "Invalid StreamID", http.StatusBadRequest)
return
}
messages, err := svc.GetMessagesByStreamID(uint(id))
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
return
}
var response []models.MessageResponse
for _, message := range messages {
stream, err := streamSvc.GetStreamTitleByID(message.StreamID)
if err != nil {
http.Error(w, "Stream not found", http.StatusNotFound)
return
}
response = append(response, models.MessageResponse{
ID: message.ID,
Content: message.Content,
StreamTitle: stream,
CreatedAt: message.CreatedAt,
})
}
err = json.NewEncoder(w).Encode(response)
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
}
}
}
// GetMessage godoc
// @Summary Получить сообщение по ID
// @Description Возвращает сообщение с указанным ID
// @Tags messages
// @Accept json
// @Produce json
// @Param id path int true "ID сообщения"
// @Success 200 {object} models.Message
// @Router /messages/{id} [get]
func GetMessage(svc services.MessageService, streamSvc services.StreamClient) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
idStr := mux.Vars(r)["id"]
id, err := strconv.Atoi(idStr)
if err != nil {
http.Error(w, "Invalid ID", http.StatusBadRequest)
return
}
message, err := svc.GetMessageByID(uint(id))
if err != nil {
http.Error(w, "Message not found", http.StatusNotFound)
return
}
var response models.MessageResponse
stream, err := streamSvc.GetStreamTitleByID(message.StreamID)
if err != nil {
http.Error(w, "Stream not found", http.StatusNotFound)
return
}
response = models.MessageResponse{
ID: message.ID,
Content: message.Content,
StreamTitle: stream,
CreatedAt: message.CreatedAt,
}
err = json.NewEncoder(w).Encode(response)
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
}
}
}
// CreateMessage godoc
// @Summary Создать сообщение
// @Description Создает новое сообщение
// @Tags messages
// @Accept json
// @Produce json
// @Param message body models.Message true "Данные сообщения"
// @Success 200 {object} models.Message
// @Router /messages [post]
func CreateMessage(svc services.MessageService) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
var message models.Message
err := json.NewDecoder(r.Body).Decode(&message)
if err != nil {
http.Error(w, "Failed to decode request body", http.StatusBadRequest)
return
}
err = svc.CreateMessage(&message)
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
return
}
w.WriteHeader(http.StatusCreated)
err = json.NewEncoder(w).Encode(message)
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
}
}
}
// UpdateMessage godoc
// @Summary Обновить данные сообщения
// @Description Обновляет данные сообщения по ID
// @Tags messages
// @Accept json
// @Produce json
// @Param id path int true "ID сообщения"
// @Param message body models.Message true "Обновленные данные сообщения"
// @Success 200 {object} models.Message
// @Router /messages/{id} [put]
func UpdateMessage(svc services.MessageService) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
var message models.Message
idStr := mux.Vars(r)["id"]
id, err := strconv.Atoi(idStr)
if err != nil {
http.Error(w, "Invalid ID", http.StatusBadRequest)
return
}
if err := json.NewDecoder(r.Body).Decode(&message); err != nil {
http.Error(w, "Failed to decode request body", http.StatusBadRequest)
return
}
message.ID = uint(id)
err = svc.UpdateMessage(&message)
if err != nil {
http.Error(w, "Message not found", http.StatusNotFound)
return
}
err = json.NewEncoder(w).Encode(message)
if err != nil {
http.Error(w, err.Error(), http.StatusInternalServerError)
}
}
}
// DeleteMessage godoc
// @Summary Удалить сообщение
// @Description Удаляет сообщение по ID
// @Tags messages
// @Accept json
// @Produce json
// @Param id path int true "ID сообщения"
// @Success 204 "No Content"
// @Router /messages/{id} [delete]
func DeleteMessage(svc services.MessageService) http.HandlerFunc {
return func(w http.ResponseWriter, r *http.Request) {
idStr := mux.Vars(r)["id"]
id, err := strconv.Atoi(idStr)
if err != nil {
http.Error(w, "Invalid ID", http.StatusBadRequest)
return
}
err = svc.DeleteMessage(uint(id))
if err != nil {
http.Error(w, "Message not found", http.StatusNotFound)
return
}
w.WriteHeader(http.StatusNoContent)
}
}

View File

@@ -1,12 +0,0 @@
package models
import "time"
// Message представляет сообщение в системе
// @Description Сообщение
type Message struct {
ID uint `gorm:"primaryKey" json:"id"` // Идентификатор сообщения
StreamID uint `json:"stream_id"` // Идентификатор стрима
Content string `json:"content"` // Содержание комментария
CreatedAt time.Time `json:"created_at" example:"2024-10-04T14:48:00Z"` // Время отправления комментария
}

View File

@@ -1,10 +0,0 @@
package models
import "time"
type MessageResponse struct {
ID uint `json:"id"`
Content string `json:"content"`
StreamTitle string `json:"stream_title"`
CreatedAt time.Time `json:"created_at" example:"2024-10-04T14:48:00Z"`
}

View File

@@ -1,8 +0,0 @@
package models
type StreamResponse struct {
ID uint `json:"id"`
Title string `json:"title"`
StartedAt string `json:"started_at"`
EndedAt *string `json:"ended_at"`
}

View File

@@ -1,64 +0,0 @@
package repositories
import (
"gorm.io/gorm"
"messageService/internal/app/models"
)
type MessageRepository interface {
GetAllMessages() ([]models.Message, error)
GetMessageByID(id uint) (*models.Message, error)
GetMessagesByStreamID(streamID uint) ([]models.Message, error)
CreateMessage(message *models.Message) error
UpdateMessage(message *models.Message) error
DeleteMessage(id uint) error
}
type messageRepository struct {
db *gorm.DB
}
func NewMessageRepository(db *gorm.DB) MessageRepository {
return &messageRepository{db: db}
}
func (r *messageRepository) GetAllMessages() ([]models.Message, error) {
var messages []models.Message
if err := r.db.Find(&messages).Error; err != nil {
return nil, err
}
return messages, nil
}
func (r *messageRepository) GetMessageByID(id uint) (*models.Message, error) {
var message models.Message
if err := r.db.First(&message, id).Error; err != nil {
return nil, err
}
return &message, nil
}
func (r *messageRepository) GetMessagesByStreamID(streamID uint) ([]models.Message, error) {
var messages []models.Message
if err := r.db.Where("stream_id = ?", streamID).Find(&messages).Error; err != nil {
return nil, err
}
return messages, nil
}
func (r *messageRepository) CreateMessage(message *models.Message) error {
return r.db.Create(message).Error
}
func (r *messageRepository) UpdateMessage(message *models.Message) error {
var existingMessage models.Message
if err := r.db.First(&existingMessage, message.ID).Error; err != nil {
return err
}
return r.db.Model(&existingMessage).Updates(message).Error
}
func (r *messageRepository) DeleteMessage(id uint) error {
return r.db.Delete(&models.Message{}, id).Error
}

View File

@@ -1,47 +0,0 @@
package services
import (
"messageService/internal/app/models"
"messageService/internal/app/repositories"
)
type MessageService interface {
GetAllMessages() ([]models.Message, error)
GetMessagesByStreamID(streamId uint) ([]models.Message, error)
GetMessageByID(id uint) (*models.Message, error)
CreateMessage(message *models.Message) error
UpdateMessage(message *models.Message) error
DeleteMessage(id uint) error
}
type messageService struct {
repo repositories.MessageRepository
}
func NewMessageService(repo repositories.MessageRepository) MessageService {
return &messageService{repo}
}
func (s *messageService) GetAllMessages() ([]models.Message, error) {
return s.repo.GetAllMessages()
}
func (s *messageService) GetMessagesByStreamID(streamId uint) ([]models.Message, error) {
return s.repo.GetMessagesByStreamID(streamId)
}
func (s *messageService) GetMessageByID(id uint) (*models.Message, error) {
return s.repo.GetMessageByID(id)
}
func (s *messageService) CreateMessage(message *models.Message) error {
return s.repo.CreateMessage(message)
}
func (s *messageService) UpdateMessage(message *models.Message) error {
return s.repo.UpdateMessage(message)
}
func (s *messageService) DeleteMessage(id uint) error {
return s.repo.DeleteMessage(id)
}

View File

@@ -1,62 +0,0 @@
package services
import (
"encoding/json"
"fmt"
"io"
"log"
"messageService/internal/app/models"
"net/http"
"time"
)
type StreamClient interface {
GetStreamTitleByID(streamId uint) (string, error)
}
type streamClient struct {
BaseURL string
Timeout time.Duration
}
func NewStreamClient(baseURL string, timeout time.Duration) StreamClient {
return &streamClient{
BaseURL: baseURL,
Timeout: timeout,
}
}
func (c *streamClient) GetStreamTitleByID(streamID uint) (string, error) {
client := &http.Client{Timeout: c.Timeout}
url := fmt.Sprintf("%s/streams/%d", c.BaseURL, streamID)
log.Printf(url)
resp, err := client.Get(url)
if err != nil {
return "", err
}
defer func(Body io.ReadCloser) {
err := Body.Close()
if err != nil {
}
}(resp.Body)
log.Printf("Response Status: %s", resp.Status)
body, _ := io.ReadAll(resp.Body)
log.Printf("Response Body: %s", body)
if resp.StatusCode != http.StatusOK {
return "", fmt.Errorf("failed to get stream title: %s", resp.Status)
}
var stream models.StreamResponse
if err := json.Unmarshal(body, &stream); err != nil {
log.Printf("Unmarshal error: %s", err)
return "", err
}
log.Printf("Name: %s", stream.Title)
return stream.Title, nil
}

View File

@@ -1,61 +0,0 @@
events {
worker_connections 1024;
}
http {
server {
listen 80;
server_name localhost;
# Прокси для Stream-сервиса
location /stream-service/ {
proxy_pass http://stream-service:8000/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Origin, Content-Type, Accept, Authorization';
}
# Прокси для Message-сервиса
location /message-service/ {
proxy_pass http://message-service:8080/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Origin, Content-Type, Accept, Authorization';
}
# Прокси для Swagger (Stream-сервис)
location /stream-service/swagger/ {
proxy_pass http://stream-service:8000/swagger/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}
# Прокси для Swagger (Message-сервис)
location /message-service/swagger/ {
proxy_pass http://message-service:8080/swagger/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}
location /stream-service/doc.json {
proxy_pass http://stream-service:8000/doc.json;
}
location /message-service/doc.json {
proxy_pass http://message-service:8080/doc.json;
}
}
}

View File

@@ -1,14 +0,0 @@
FROM golang:1.23-alpine
WORKDIR /app
COPY go.mod go.sum ./
RUN go mod download
COPY . .
RUN go build -o stream_main ./cmd/stream_main.go
EXPOSE 8000
CMD ["./stream_main"]

View File

@@ -1,59 +0,0 @@
package main
import (
"github.com/gorilla/mux"
"github.com/rs/zerolog"
httpSwagger "github.com/swaggo/http-swagger"
"log"
"net/http"
"os"
_ "streamService/docs"
"streamService/internal/app/database"
"streamService/internal/app/handlers"
"streamService/internal/app/repositories"
"streamService/internal/app/services"
)
func main() {
// Настройка логирования
logFile, err := os.OpenFile("app.log", os.O_CREATE|os.O_WRONLY|os.O_APPEND, 0666)
if err != nil {
log.Fatalf("Could not open log file: %v", err)
}
defer func(logFile *os.File) {
err := logFile.Close()
if err != nil {
}
}(logFile)
zerolog.TimeFieldFormat = zerolog.TimeFormatUnix
logger := zerolog.New(logFile).With().Timestamp().Logger()
// Инициализация базы данных
db, err := database.InitStreamDB()
if err != nil {
log.Fatalf("Could not connect to the database: %v", err)
}
// Инициализация репозитория и сервиса
streamRepo := repositories.NewStreamRepository(db)
streamService := services.NewStreamService(streamRepo)
// Инициализация маршрутизатора
router := mux.NewRouter()
// Регистрация хендлеров
handlers.RegisterStreamRoutes(router, streamService)
// Swagger
router.HandleFunc("/doc.json", func(w http.ResponseWriter, r *http.Request) {
http.ServeFile(w, r, "docs/doc.json")
}).Methods("GET")
// Route for Swagger UI
router.PathPrefix("/swagger/").Handler(httpSwagger.WrapHandler)
logger.Info().Msg("Server started at http://localhost:8000")
logger.Fatal().Err(http.ListenAndServe(":8000", router)).Msg("Server crashed")
}

View File

@@ -1,191 +0,0 @@
{
"swagger": "2.0",
"info": {
"contact": {},
"version": "",
"title": ""
},
"paths": {
"/stream-service/streams": {
"get": {
"description": "Возвращает список всех стримов",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Получить все стримы",
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.Stream"
}
}
}
}
},
"post": {
"description": "Создает новый стрим",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Создать стрим",
"parameters": [
{
"description": "Данные стримы",
"name": "stream",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
}
}
},
"/stream-service/streams/{id}": {
"get": {
"description": "Возвращает стрим с указанным ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Получить стрим по ID",
"parameters": [
{
"type": "integer",
"description": "ID стрима",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
}
},
"put": {
"description": "Обновляет данные стрима по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Обновить данные стрима",
"parameters": [
{
"type": "integer",
"description": "ID стрима",
"name": "id",
"in": "path",
"required": true
},
{
"description": "Обновленные данные стрима",
"name": "stream",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
}
},
"delete": {
"description": "Удаляет стрим по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Удалить стрим",
"parameters": [
{
"type": "integer",
"description": "ID стрима",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"204": {
"description": "No Content"
}
}
}
}
},
"definitions": {
"models.Stream": {
"description": "Стрим",
"type": "object",
"properties": {
"ended_at": {
"description": "Время окончания стрима",
"type": "string"
},
"id": {
"description": "Идентификатор стрима",
"type": "integer"
},
"started_at": {
"description": "Время запуска стрима",
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"title": {
"description": "Название стрима",
"type": "string"
}
}
}
}
}

View File

@@ -1,216 +0,0 @@
// Package docs Code generated by swaggo/swag. DO NOT EDIT
package docs
import "github.com/swaggo/swag"
const docTemplate = `{
"schemes": {{ marshal .Schemes }},
"swagger": "2.0",
"info": {
"description": "{{escape .Description}}",
"title": "{{.Title}}",
"contact": {},
"version": "{{.Version}}"
},
"host": "{{.Host}}",
"basePath": "{{.BasePath}}",
"paths": {
"/stream-service/streams": {
"get": {
"description": "Возвращает список всех стримов",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Получить все стримы",
"responses": {
"200": {
"description": "OK",
"schema": {
"type": "array",
"items": {
"$ref": "#/definitions/models.Stream"
}
}
}
}
},
"post": {
"description": "Создает новый стрим",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Создать стрим",
"parameters": [
{
"description": "Данные стримы",
"name": "stream",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
}
}
},
"/stream-service/streams/{id}": {
"get": {
"description": "Возвращает стрим с указанным ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Получить стрим по ID",
"parameters": [
{
"type": "integer",
"description": "ID стрима",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
}
},
"put": {
"description": "Обновляет данные стрима по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Обновить данные стрима",
"parameters": [
{
"type": "integer",
"description": "ID стрима",
"name": "id",
"in": "path",
"required": true
},
{
"description": "Обновленные данные стрима",
"name": "stream",
"in": "body",
"required": true,
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
],
"responses": {
"200": {
"description": "OK",
"schema": {
"$ref": "#/definitions/models.Stream"
}
}
}
},
"delete": {
"description": "Удаляет стрим по ID",
"consumes": [
"application/json"
],
"produces": [
"application/json"
],
"tags": [
"streams"
],
"summary": "Удалить стрим",
"parameters": [
{
"type": "integer",
"description": "ID стрима",
"name": "id",
"in": "path",
"required": true
}
],
"responses": {
"204": {
"description": "No Content"
}
}
}
}
},
"definitions": {
"models.Stream": {
"description": "Стрим",
"type": "object",
"properties": {
"ended_at": {
"description": "Время окончания стрима",
"type": "string"
},
"id": {
"description": "Идентификатор стрима",
"type": "integer"
},
"started_at": {
"description": "Время запуска стрима",
"type": "string",
"example": "2024-10-04T14:48:00Z"
},
"title": {
"description": "Название стрима",
"type": "string"
}
}
}
}
}`
// SwaggerInfo holds exported Swagger Info so clients can modify it
var SwaggerInfo = &swag.Spec{
Version: "",
Host: "",
BasePath: "",
Schemes: []string{},
Title: "",
Description: "",
InfoInstanceName: "swagger",
SwaggerTemplate: docTemplate,
}
func init() {
swag.Register(SwaggerInfo.InstanceName(), SwaggerInfo)
}

Some files were not shown because too many files have changed in this diff Show More