Compare commits

..

No commits in common. "main" and "belyaeva_ekaterina_lab_3" have entirely different histories.

369 changed files with 0 additions and 9649 deletions

View File

@ -1,60 +0,0 @@
# Лабораторная работа №1
## Задание
Цель: изучение современных технологий контейнеризации.
Задачи:
- Установить средство контейнеризации docker.
- Изучить применение и принципы docker.
- Изучить утилиту docker-compose и структуру файла docker-compose.yml.
- Развернуть не менее 3х различных сервисов при помощи docker-compose.
- Оформить отчёт в формате Markdown и создать Pull Request в git-репозитории.
## Ход работы
### Разворачивание сервисов
Были выбраны три сервиса:
- mediawiki
- drupal
- wordpress
### docker-compose.yml
Был создан файл docker-compose.yml для разворачивания сервисов:
```
version: '3'
services:
mediawiki:
image: mediawiki
ports:
- 8080:80
volumes:
- mediawiki_data:/var/www/html/images
drupal:
image: drupal
ports:
- 3000:80
volumes:
- drupal_data:/var/www/html/sites/default/files
wordpress:
image: wordpress
ports:
- 8000:80
volumes:
- wordpress_data:/var/www/html/wp-content
volumes:
mediawiki_data:
drupal_data:
wordpress_data:
```
Для каждого сервиса присутствует проброс портов, образ и хотя бы один volume.
Работоспособность показана в видео: [lab1.mp4](lab1.mp4)

View File

@ -1,27 +0,0 @@
version: '3'
services:
mediawiki:
image: mediawiki
ports:
- 8080:80
volumes:
- mediawiki_data:/var/www/html/images
drupal:
image: drupal
ports:
- 3000:80
volumes:
- drupal_data:/var/www/html/sites/default/files
wordpress:
image: wordpress
ports:
- 8000:80
volumes:
- wordpress_data:/var/www/html/wp-content
volumes:
mediawiki_data:
drupal_data:
wordpress_data:

Binary file not shown.

View File

@ -1,81 +0,0 @@
# Лабораторная работа №2
## Задание
Цель: изучение техники создания простого распределённого приложения.
Задачи:
- Согласно варианту (0 и 1) разработать два приложения такие, что результат первого является исходными данными для второго.
- Изучить файлы сборки образов docker и разработать их для созданных приложений.
- Собрать файл docker-compose.yml для запуска приложений. Разобраться с монтированием каталогов из хост-системы.
- Правильно закоммитить результат без лишних файлов.
- Оформить pull request по правилам и отправить его на проверку.
## Ход работы
### Разворачивание сервисов:
Были разработаны два приложения на java:
worker-1 - Формирует файл /var/result/data.txt из первых строк всех файлов каталога /var/data.
worker-2 - Ищет набольшее число из файла /var/result/data.txt и сохраняет его вторую степень в /var/result/result.txt.
### Исходные файлы
Исходные файлы содержат целые числа.
В /var/result/data.txt копируются числа из первых строк каждого файла - 1, 10, 5
В /var/result/result.txt записывается число 100 - квадрат наибольшего числа - 10
Содержимое всех файлов показано в видео.
### Dockerfile
Для лр были созданы идентичные докер-файлы в обоих проектах:
```
FROM openjdk:17
LABEL authors="tauri"
RUN mkdir /var/data
RUN mkdir /var/result
WORKDIR /app
COPY src /app/src
RUN javac /app/src/Main.java
CMD ["java", "-cp", "/app/src", "Main"]
```
- FROM - выбор базового образа
- LABEL - метка, что автор - tauri
- RUN - создание директории внутри контейнера
- WORKDIR - установка рабочей директории для последующих команд
- COPY - копирование содержимого директории внутрь контейнера
- RUN - компиляция исходного кода Main.java внутри контейнера
- CMD - определение команды, которая выполняется при запуске контейнера. В данном случае происходит запуск программы на java и указывается пусть до Main.java
### docker-compose.yml
```
version: "3" #формат конфигурации Docker Compose версии 3
services: #определение сервисов
worker1:
build:
context: /worker-1 #путь к контексту сборки
dockerfile: Dockerfile #имя докерфайла
volumes:
- .\var\data:/var/data #том для папки файлов
- .\var\result:/var/result #том для папки результатов
worker2:
depends_on: #зависимость: worker2 не будет запущен, пока worker1 не завершит свой запуск
- worker1
build:
context: /worker-2 #путь к контексту сборки
dockerfile: Dockerfile #имя докерфайла
volumes:
- .\var\result:/var/data #том для папки файлов
- .\var\result:/var/result #том для папки результатов
```
Работоспособность и то, что контейнеры были успешно развернуты показано в видео: [lab2.mp4](lab2.mp4)

View File

@ -1,18 +0,0 @@
version: "3" #формат конфигурации Docker Compose версии 3
services: #определение сервисов
worker1:
build:
context: /worker-1 #путь к контексту сборки
dockerfile: Dockerfile #имя докерфайла
volumes:
- .\var\data:/var/data #том для папки файлов
- .\var\result:/var/result #том для папки результатов
worker2:
depends_on: #зависимость: worker2 не будет запущен, пока worker1 не завершит свой запуск
- worker1
build:
context: /worker-2 #путь к контексту сборки
dockerfile: Dockerfile #имя докерфайла
volumes:
- .\var\result:/var/data #том для папки файлов
- .\var\result:/var/result #том для папки результатов

Binary file not shown.

View File

@ -1,7 +0,0 @@
1
2
3
4
5
6
7

View File

@ -1,4 +0,0 @@
10
20
30
40

View File

@ -1,5 +0,0 @@
5
10
15
20
25

View File

@ -1,3 +0,0 @@
1
10
5

View File

@ -1 +0,0 @@
100

View File

@ -1,12 +0,0 @@
FROM openjdk:17
LABEL authors="tauri"
RUN mkdir /var/data
RUN mkdir /var/result
WORKDIR /app
COPY src /app/src
RUN javac /app/src/Main.java
CMD ["java", "-cp", "/app/src", "Main"]

View File

@ -1,62 +0,0 @@
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileReader;
import java.io.FileWriter;
import java.io.IOException;
public class Main {
public static void main(String[] args) {
String directoryPath = "/var/data";
String resultFilePath = "/var/result/data.txt";
File directory = new File(directoryPath);
File resultFile = new File(resultFilePath);
try {
// Создаем новый файл-результат или перезаписываем существующий
resultFile.createNewFile();
// Получаем список всех файлов в указанном каталоге
File[] files = directory.listFiles();
// Проверяем, что каталог существует и содержит файлы
if (directory.exists() && files != null) {
// Создаем объект для записи данных в файл-результат
FileWriter fileWriter = new FileWriter(resultFile);
BufferedWriter bufferedWriter = new BufferedWriter(fileWriter);
// Проходимся по всем файлам в каталоге
for (File file : files) {
// Проверяем, что текущий объект - файл
if (file.isFile()) {
// Создаем объект для чтения данных из файла
FileReader fileReader = new FileReader(file);
BufferedReader bufferedReader = new BufferedReader(fileReader);
// Читаем строку из файла и записываем ее в файл-результат
String line = bufferedReader.readLine();
if (line != null) {
bufferedWriter.write(line);
bufferedWriter.newLine();
}
// Закрываем объекты чтения данных из файла
bufferedReader.close();
fileReader.close();
}
}
// Закрываем объект для записи данных в файл-результат
bufferedWriter.close();
fileWriter.close();
System.out.println("Файл /var/result/data.txt успешно создан.");
} else {
System.out.println("Указанный каталог не существует или не содержит файлы.");
}
} catch (IOException e) {
System.out.println("Ошибка при создании файла: " + e.getMessage());
}
}
}

View File

@ -1,12 +0,0 @@
FROM openjdk:17
LABEL authors="tauri"
RUN mkdir /var/data
RUN mkdir /var/result
WORKDIR /app
COPY src /app/src
RUN javac /app/src/Main.java
CMD ["java", "-cp", "/app/src", "Main"]

View File

@ -1,68 +0,0 @@
import java.io.*;
import java.util.*;
import java.lang.Math;
public class Main {
public static void main(String[] args) {
String filePath = "/var/data/data.txt";
String resultPath = "/var/result/result.txt";
try {
// Чтение чисел из файла
List<Integer> numbers = readNumbersFromFile(filePath);
// Поиск наибольшего числа
int maxNumber = findMaxNumber(numbers);
// Вычисление второй степени
int squaredNumber = (int) Math.pow(maxNumber, 2);
// Сохранение результата в файл
saveResultToFile(resultPath, squaredNumber);
System.out.println("Наибольшее число: " + maxNumber);
System.out.println("Квадрат наибольшего числа: " + squaredNumber);
System.out.println("Результат сохранен в файле " + resultPath);
} catch (IOException e) {
System.out.println("Произошла ошибка при чтении/записи файла.");
e.printStackTrace();
}
}
// Метод для чтения чисел из файла
private static List<Integer> readNumbersFromFile(String filePath) throws IOException {
List<Integer> numbers = new ArrayList<>();
BufferedReader reader = new BufferedReader(new FileReader(filePath));
String line;
while ((line = reader.readLine()) != null) {
int number = Integer.parseInt(line.trim());
numbers.add(number);
}
reader.close();
return numbers;
}
// Метод для поиска наибольшего числа в списке
private static int findMaxNumber(List<Integer> numbers) {
int maxNumber = Integer.MIN_VALUE;
for (int number : numbers) {
if (number > maxNumber) {
maxNumber = number;
}
}
return maxNumber;
}
// Метод для сохранения результата в файл
private static void saveResultToFile(String filePath, int result) throws IOException {
BufferedWriter writer = new BufferedWriter(new FileWriter(filePath));
writer.write(String.valueOf(result));
writer.close();
}
}

View File

@ -1,42 +0,0 @@
.gradle
build/
!gradle/wrapper/gradle-wrapper.jar
!**/src/main/**/build/
!**/src/test/**/build/
### IntelliJ IDEA ###
.idea/modules.xml
.idea/jarRepositories.xml
.idea/compiler.xml
.idea/libraries/
*.iws
*.iml
*.ipr
out/
!**/src/main/**/out/
!**/src/test/**/out/
### Eclipse ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
bin/
!**/src/main/**/bin/
!**/src/test/**/bin/
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
### VS Code ###
.vscode/
### Mac OS ###
.DS_Store

View File

@ -1,40 +0,0 @@
# Лабораторная работа №4
## Задание
Цель: изучение проектирования приложений при помощи брокера сообщений.
Задачи:
- Установить брокер сообщений RabbitMQ.
- Пройти уроки 1, 2 и 3 из RabbitMQ Tutorials на любом языке программирования.
- Продемонстрировать работу брокера сообщений
## Ход работы
### RabbitMQ
RabbitMQ был установлен на локальное устройство без использования Docker.
### Работа брокера
Было создано три приложения - publisher, consumer1, consumer2.
Задача publisher - осуществлять отправку сообщений
![publisherConsole.png](screenshots%2FpublisherConsole.png)
Задача consumer1 - принимать сообщения и обрабатывать его 3 секунды
![consumer1Console.png](screenshots%2Fconsumer1Console.png)
Задача consumer2 - получать сообщение и обрабатывать его моментально, без задержек
![consumer2Console.png](screenshots%2Fconsumer2Console.png)
### Результат процесса выполнения в RabbitMQ
Изначально графики были неровные, но программа выполнялась долго, они выровнялись и получились следующие графики:
![overviewRMQ.png](screenshots%2FoverviewRMQ.png)
![exchangeRMQ.png](screenshots%2FexchangeRMQ.png)
![queue1RMQ.png](screenshots%2Fqueue1RMQ.png)
![queue2RMQ.png](screenshots%2Fqueue2RMQ.png)
## Результат
Работоспособность показана в видео: [lab4.mp4](lab4.mp4)

View File

@ -1,42 +0,0 @@
plugins {
id 'java'
}
group = 'org.example'
version = '1.0-SNAPSHOT'
repositories {
mavenCentral()
}
dependencies {
testImplementation platform('org.junit:junit-bom:5.9.1')
testImplementation 'org.junit.jupiter:junit-jupiter'
implementation 'com.rabbitmq:amqp-client:5.12.0'
}
test {
useJUnitPlatform()
}
/*task runApp1(type: JavaExec) {
main = 'org.example.Consumer1' // Замените на полное имя класса вашего приложения
classpath = sourceSets.main.runtimeClasspath
}
task runApp2(type: JavaExec) {
main = 'org.example.Consumer2' // Замените на полное имя класса вашего приложения
classpath = sourceSets.main.runtimeClasspath
}
task runApp3(type: JavaExec) {
main = 'org.example.Publisher' // Замените на полное имя класса вашего приложения
classpath = sourceSets.main.runtimeClasspath
}
task runAll {
description = 'Run all three applications concurrently'
group = 'application'
dependsOn runApp1, runApp2, runApp3
}*/

View File

@ -1,6 +0,0 @@
#Thu Jan 11 14:32:39 GMT+04:00 2024
distributionBase=GRADLE_USER_HOME
distributionPath=wrapper/dists
distributionUrl=https\://services.gradle.org/distributions/gradle-8.0-bin.zip
zipStoreBase=GRADLE_USER_HOME
zipStorePath=wrapper/dists

View File

@ -1,234 +0,0 @@
#!/bin/sh
#
# Copyright © 2015-2021 the original authors.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
##############################################################################
#
# Gradle start up script for POSIX generated by Gradle.
#
# Important for running:
#
# (1) You need a POSIX-compliant shell to run this script. If your /bin/sh is
# noncompliant, but you have some other compliant shell such as ksh or
# bash, then to run this script, type that shell name before the whole
# command line, like:
#
# ksh Gradle
#
# Busybox and similar reduced shells will NOT work, because this script
# requires all of these POSIX shell features:
# * functions;
# * expansions «$var», «${var}», «${var:-default}», «${var+SET}»,
# «${var#prefix}», «${var%suffix}», and «$( cmd )»;
# * compound commands having a testable exit status, especially «case»;
# * various built-in commands including «command», «set», and «ulimit».
#
# Important for patching:
#
# (2) This script targets any POSIX shell, so it avoids extensions provided
# by Bash, Ksh, etc; in particular arrays are avoided.
#
# The "traditional" practice of packing multiple parameters into a
# space-separated string is a well documented source of bugs and security
# problems, so this is (mostly) avoided, by progressively accumulating
# options in "$@", and eventually passing that to Java.
#
# Where the inherited environment variables (DEFAULT_JVM_OPTS, JAVA_OPTS,
# and GRADLE_OPTS) rely on word-splitting, this is performed explicitly;
# see the in-line comments for details.
#
# There are tweaks for specific operating systems such as AIX, CygWin,
# Darwin, MinGW, and NonStop.
#
# (3) This script is generated from the Groovy template
# https://github.com/gradle/gradle/blob/master/subprojects/plugins/src/main/resources/org/gradle/api/internal/plugins/unixStartScript.txt
# within the Gradle project.
#
# You can find Gradle at https://github.com/gradle/gradle/.
#
##############################################################################
# Attempt to set APP_HOME
# Resolve links: $0 may be a link
app_path=$0
# Need this for daisy-chained symlinks.
while
APP_HOME=${app_path%"${app_path##*/}"} # leaves a trailing /; empty if no leading path
[ -h "$app_path" ]
do
ls=$( ls -ld "$app_path" )
link=${ls#*' -> '}
case $link in #(
/*) app_path=$link ;; #(
*) app_path=$APP_HOME$link ;;
esac
done
APP_HOME=$( cd "${APP_HOME:-./}" && pwd -P ) || exit
APP_NAME="Gradle"
APP_BASE_NAME=${0##*/}
# Add default JVM options here. You can also use JAVA_OPTS and GRADLE_OPTS to pass JVM options to this script.
DEFAULT_JVM_OPTS='"-Xmx64m" "-Xms64m"'
# Use the maximum available, or set MAX_FD != -1 to use that value.
MAX_FD=maximum
warn () {
echo "$*"
} >&2
die () {
echo
echo "$*"
echo
exit 1
} >&2
# OS specific support (must be 'true' or 'false').
cygwin=false
msys=false
darwin=false
nonstop=false
case "$( uname )" in #(
CYGWIN* ) cygwin=true ;; #(
Darwin* ) darwin=true ;; #(
MSYS* | MINGW* ) msys=true ;; #(
NONSTOP* ) nonstop=true ;;
esac
CLASSPATH=$APP_HOME/gradle/wrapper/gradle-wrapper.jar
# Determine the Java command to use to start the JVM.
if [ -n "$JAVA_HOME" ] ; then
if [ -x "$JAVA_HOME/jre/sh/java" ] ; then
# IBM's JDK on AIX uses strange locations for the executables
JAVACMD=$JAVA_HOME/jre/sh/java
else
JAVACMD=$JAVA_HOME/bin/java
fi
if [ ! -x "$JAVACMD" ] ; then
die "ERROR: JAVA_HOME is set to an invalid directory: $JAVA_HOME
Please set the JAVA_HOME variable in your environment to match the
location of your Java installation."
fi
else
JAVACMD=java
which java >/dev/null 2>&1 || die "ERROR: JAVA_HOME is not set and no 'java' command could be found in your PATH.
Please set the JAVA_HOME variable in your environment to match the
location of your Java installation."
fi
# Increase the maximum file descriptors if we can.
if ! "$cygwin" && ! "$darwin" && ! "$nonstop" ; then
case $MAX_FD in #(
max*)
MAX_FD=$( ulimit -H -n ) ||
warn "Could not query maximum file descriptor limit"
esac
case $MAX_FD in #(
'' | soft) :;; #(
*)
ulimit -n "$MAX_FD" ||
warn "Could not set maximum file descriptor limit to $MAX_FD"
esac
fi
# Collect all arguments for the java command, stacking in reverse order:
# * args from the command line
# * the main class name
# * -classpath
# * -D...appname settings
# * --module-path (only if needed)
# * DEFAULT_JVM_OPTS, JAVA_OPTS, and GRADLE_OPTS environment variables.
# For Cygwin or MSYS, switch paths to Windows format before running java
if "$cygwin" || "$msys" ; then
APP_HOME=$( cygpath --path --mixed "$APP_HOME" )
CLASSPATH=$( cygpath --path --mixed "$CLASSPATH" )
JAVACMD=$( cygpath --unix "$JAVACMD" )
# Now convert the arguments - kludge to limit ourselves to /bin/sh
for arg do
if
case $arg in #(
-*) false ;; # don't mess with options #(
/?*) t=${arg#/} t=/${t%%/*} # looks like a POSIX filepath
[ -e "$t" ] ;; #(
*) false ;;
esac
then
arg=$( cygpath --path --ignore --mixed "$arg" )
fi
# Roll the args list around exactly as many times as the number of
# args, so each arg winds up back in the position where it started, but
# possibly modified.
#
# NB: a `for` loop captures its iteration list before it begins, so
# changing the positional parameters here affects neither the number of
# iterations, nor the values presented in `arg`.
shift # remove old arg
set -- "$@" "$arg" # push replacement arg
done
fi
# Collect all arguments for the java command;
# * $DEFAULT_JVM_OPTS, $JAVA_OPTS, and $GRADLE_OPTS can contain fragments of
# shell script including quotes and variable substitutions, so put them in
# double quotes to make sure that they get re-expanded; and
# * put everything else in single quotes, so that it's not re-expanded.
set -- \
"-Dorg.gradle.appname=$APP_BASE_NAME" \
-classpath "$CLASSPATH" \
org.gradle.wrapper.GradleWrapperMain \
"$@"
# Use "xargs" to parse quoted args.
#
# With -n1 it outputs one arg per line, with the quotes and backslashes removed.
#
# In Bash we could simply go:
#
# readarray ARGS < <( xargs -n1 <<<"$var" ) &&
# set -- "${ARGS[@]}" "$@"
#
# but POSIX shell has neither arrays nor command substitution, so instead we
# post-process each arg (as a line of input to sed) to backslash-escape any
# character that might be a shell metacharacter, then use eval to reverse
# that process (while maintaining the separation between arguments), and wrap
# the whole thing up as a single "set" statement.
#
# This will of course break if any of these variables contains a newline or
# an unmatched quote.
#
eval "set -- $(
printf '%s\n' "$DEFAULT_JVM_OPTS $JAVA_OPTS $GRADLE_OPTS" |
xargs -n1 |
sed ' s~[^-[:alnum:]+,./:=@_]~\\&~g; ' |
tr '\n' ' '
)" '"$@"'
exec "$JAVACMD" "$@"

View File

@ -1,89 +0,0 @@
@rem
@rem Copyright 2015 the original author or authors.
@rem
@rem Licensed under the Apache License, Version 2.0 (the "License");
@rem you may not use this file except in compliance with the License.
@rem You may obtain a copy of the License at
@rem
@rem https://www.apache.org/licenses/LICENSE-2.0
@rem
@rem Unless required by applicable law or agreed to in writing, software
@rem distributed under the License is distributed on an "AS IS" BASIS,
@rem WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
@rem See the License for the specific language governing permissions and
@rem limitations under the License.
@rem
@if "%DEBUG%" == "" @echo off
@rem ##########################################################################
@rem
@rem Gradle startup script for Windows
@rem
@rem ##########################################################################
@rem Set local scope for the variables with windows NT shell
if "%OS%"=="Windows_NT" setlocal
set DIRNAME=%~dp0
if "%DIRNAME%" == "" set DIRNAME=.
set APP_BASE_NAME=%~n0
set APP_HOME=%DIRNAME%
@rem Resolve any "." and ".." in APP_HOME to make it shorter.
for %%i in ("%APP_HOME%") do set APP_HOME=%%~fi
@rem Add default JVM options here. You can also use JAVA_OPTS and GRADLE_OPTS to pass JVM options to this script.
set DEFAULT_JVM_OPTS="-Xmx64m" "-Xms64m"
@rem Find java.exe
if defined JAVA_HOME goto findJavaFromJavaHome
set JAVA_EXE=java.exe
%JAVA_EXE% -version >NUL 2>&1
if "%ERRORLEVEL%" == "0" goto execute
echo.
echo ERROR: JAVA_HOME is not set and no 'java' command could be found in your PATH.
echo.
echo Please set the JAVA_HOME variable in your environment to match the
echo location of your Java installation.
goto fail
:findJavaFromJavaHome
set JAVA_HOME=%JAVA_HOME:"=%
set JAVA_EXE=%JAVA_HOME%/bin/java.exe
if exist "%JAVA_EXE%" goto execute
echo.
echo ERROR: JAVA_HOME is set to an invalid directory: %JAVA_HOME%
echo.
echo Please set the JAVA_HOME variable in your environment to match the
echo location of your Java installation.
goto fail
:execute
@rem Setup the command line
set CLASSPATH=%APP_HOME%\gradle\wrapper\gradle-wrapper.jar
@rem Execute Gradle
"%JAVA_EXE%" %DEFAULT_JVM_OPTS% %JAVA_OPTS% %GRADLE_OPTS% "-Dorg.gradle.appname=%APP_BASE_NAME%" -classpath "%CLASSPATH%" org.gradle.wrapper.GradleWrapperMain %*
:end
@rem End local scope for the variables with windows NT shell
if "%ERRORLEVEL%"=="0" goto mainEnd
:fail
rem Set variable GRADLE_EXIT_CONSOLE if you need the _script_ return code instead of
rem the _cmd.exe /c_ return code!
if not "" == "%GRADLE_EXIT_CONSOLE%" exit 1
exit /b 1
:mainEnd
if "%OS%"=="Windows_NT" endlocal
:omega

Binary file not shown.

Before

Width:  |  Height:  |  Size: 93 KiB

Binary file not shown.

Binary file not shown.

Before

Width:  |  Height:  |  Size: 62 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 60 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 49 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 82 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 45 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 93 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 58 KiB

View File

@ -1,2 +0,0 @@
rootProject.name = 'lab4'

View File

@ -1,42 +0,0 @@
package org.example;
import com.rabbitmq.client.*;
public class Consumer1 {
private static final String QUEUE_NAME = "queue1";
private static final String EXCHANGE_NAME = "exchange";
public static void main(String[] args) throws Exception {
try {
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("localhost");
Connection connection = factory.newConnection();
Channel channel = connection.createChannel();
channel.queueDeclare(QUEUE_NAME, false, false, false, null);
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME, "");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
try {
System.out.println("Consumer1 received" + message);
Thread.sleep(3000);
} catch (InterruptedException e) {
e.printStackTrace();
}
System.out.println(" Consumer1 processed the following message: " + message);
};
channel.basicConsume(QUEUE_NAME, true, deliverCallback, consumerTag -> {});
System.out.println("Consumer1 is waiting for messages");
while (true) {
// Поддержание работы приложения
}
} catch (Exception e) {
e.printStackTrace();
}
}
}

View File

@ -1,37 +0,0 @@
package org.example;
import com.rabbitmq.client.*;
public class Consumer2 {
private static final String EXCHANGE_NAME = "exchange";
private static final String QUEUE_NAME = "queue2";
public static void main(String[] args) throws Exception {
try {
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("localhost");
Connection connection = factory.newConnection();
Channel channel = connection.createChannel();
channel.queueDeclare(QUEUE_NAME, false, false, false, null);
channel.queueBind(QUEUE_NAME, EXCHANGE_NAME, "");
DeliverCallback deliverCallback = (consumerTag, delivery) -> {
String message = new String(delivery.getBody());
System.out.println("Consumer2 received" + message);
// моментальная обработка сообщений
System.out.println("Consumer2 processed the following message: " + message);
};
channel.basicConsume(QUEUE_NAME, true, deliverCallback, consumerTag -> {});
System.out.println("Consumer2 is waiting for messages");
while (true) {
// Поддержание работы приложения
}
} catch (Exception e) {
e.printStackTrace();
}
}
}

View File

@ -1,35 +0,0 @@
package org.example;
import com.rabbitmq.client.Channel;
import com.rabbitmq.client.Connection;
import com.rabbitmq.client.ConnectionFactory;
import java.util.Random;
public class Publisher {
private static final String EXCHANGE_NAME = "exchange";
public static void main(String[] args) throws Exception {
ConnectionFactory factory = new ConnectionFactory();
factory.setHost("localhost");
try (Connection connection = factory.newConnection();
Channel channel = connection.createChannel()) {
channel.exchangeDeclare(EXCHANGE_NAME, "fanout");
while (true) {
String message = generateMessage(); // Генерация сообщения для журнала событий
channel.basicPublish(EXCHANGE_NAME, "", null, message.getBytes());
System.out.println("Sent: " + message);
Thread.sleep(1000); // Ожидание 1 секунду
}
} catch (Exception e) {
e.printStackTrace();
}
}
private static String generateMessage() {
Random random = new Random();
return "message №" + random.nextInt(100) + 1;
}
}

View File

@ -1,29 +0,0 @@
### IntelliJ IDEA ###
out/
!**/src/main/**/out/
!**/src/test/**/out/
### Eclipse ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
bin/
!**/src/main/**/bin/
!**/src/test/**/bin/
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
### VS Code ###
.vscode/
### Mac OS ###
.DS_Store

View File

@ -1,98 +0,0 @@
# Лабораторная работа №5
## Задание
Кратко: реализовать умножение двух больших квадратных матриц.
Подробно: в лабораторной работе требуется сделать два алгоритма: обычный и параллельный. В параллельном алгоритме предусмотреть ручное задание количества потоков, каждый из которых будет выполнять умножение элементов матрицы в рамках своей зоны ответственности.
## Ход работы
### Последовательный алгоритм
```
public static int[][] multiplyMatricesSequential(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
for (int i = 0; i < rows1; i++) {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[i][j] += matrix1[i][k] * matrix2[k][j];
}
}
}
return result;
}
```
### Параллельный алгоритм
```
public static int[][] multiplyMatricesParallel(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
int numberOfThreads = 5; // Количество потоков
ExecutorService executor = Executors.newFixedThreadPool(numberOfThreads);
for (int i = 0; i < rows1; i++) {
final int row = i;
executor.execute(new Runnable() {
@Override
public void run() {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[row][j] += matrix1[row][k] * matrix2[k][j];
}
}
}
});
}
executor.shutdown();
while (!executor.isTerminated()) {
// Ожидаем завершения всех потоков
}
return result;
}
```
## Результат
Была проверка времени выполнения алгоритма для матриц размером 100х100, 300х300, 500х500 с разным количеством потоков.
100х100, 1 поток
![100thr1.png](screenshots%2F100thr1.png)
100х100, 5 потоков
![100thr5.png](screenshots%2F100thr5.png)
300х300, 1 поток
![300thr1.png](screenshots%2F300thr1.png)
300х300, 5 потоков
![300thr5.png](screenshots%2F300thr5.png)
500х500, 1 поток
![500th1.png](screenshots%2F500th1.png)
500х500, 5 потоков
![500thr5.png](screenshots%2F500thr5.png)
Из данных скриншотов видно, что в случае с матрицей 100х100 последовательный алгоритм работает лучше, чем параллельный.
Для остальных матриц параллельный алгоритм работает лучше, а также увеличение кол-ва потоков уменьшает время выполнения алгоритма. (хотя в случае матрицы 100х100 - сильно увеличивает)
Работоспособность показана в видео: [lab5.mp4](lab5.mp4)

Binary file not shown.

Binary file not shown.

Before

Width:  |  Height:  |  Size: 16 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 16 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 19 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 19 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 20 KiB

View File

@ -1,84 +0,0 @@
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
public class Matrix100x100 {
private static final int SIZE = 100;
public static void main(String[] args) {
int[][] matrix1 = generateMatrix(SIZE, SIZE);
int[][] matrix2 = generateMatrix(SIZE, SIZE);
long startTime = System.currentTimeMillis();
int[][] resultSequential = multiplyMatricesSequential(matrix1, matrix2);
long endTime = System.currentTimeMillis();
long sequentialTime = endTime - startTime;
startTime = System.currentTimeMillis();
int[][] resultParallel = multiplyMatricesParallel(matrix1, matrix2);
endTime = System.currentTimeMillis();
long parallelTime = endTime - startTime;
System.out.println("Sequential multiplication time: " + sequentialTime + " ms");
System.out.println("Parallel multiplication time: " + parallelTime + " ms");
}
public static int[][] multiplyMatricesSequential(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
for (int i = 0; i < rows1; i++) {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[i][j] += matrix1[i][k] * matrix2[k][j];
}
}
}
return result;
}
public static int[][] multiplyMatricesParallel(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
int numberOfThreads = 5; // Количество потоков
ExecutorService executor = Executors.newFixedThreadPool(numberOfThreads);
for (int i = 0; i < rows1; i++) {
final int row = i;
executor.execute(new Runnable() {
@Override
public void run() {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[row][j] += matrix1[row][k] * matrix2[k][j];
}
}
}
});
}
executor.shutdown();
while (!executor.isTerminated()) {
// Ожидаем завершения всех потоков
}
return result;
}
public static int[][] generateMatrix(int rows, int columns) {
int[][] matrix = new int[rows][columns];
for (int i = 0; i < rows; i++) {
for (int j = 0; j < columns; j++) {
matrix[i][j] = (int) (Math.random() * 10);
}
}
return matrix;
}
}

View File

@ -1,84 +0,0 @@
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
public class Matrix300x300 {
private static final int SIZE = 300;
public static void main(String[] args) {
int[][] matrix1 = generateMatrix(SIZE, SIZE);
int[][] matrix2 = generateMatrix(SIZE, SIZE);
long startTime = System.currentTimeMillis();
int[][] resultSequential = multiplyMatricesSequential(matrix1, matrix2);
long endTime = System.currentTimeMillis();
long sequentialTime = endTime - startTime;
startTime = System.currentTimeMillis();
int[][] resultParallel = multiplyMatricesParallel(matrix1, matrix2);
endTime = System.currentTimeMillis();
long parallelTime = endTime - startTime;
System.out.println("Sequential multiplication time: " + sequentialTime + " ms");
System.out.println("Parallel multiplication time: " + parallelTime + " ms");
}
public static int[][] multiplyMatricesSequential(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
for (int i = 0; i < rows1; i++) {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[i][j] += matrix1[i][k] * matrix2[k][j];
}
}
}
return result;
}
public static int[][] multiplyMatricesParallel(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
int numberOfThreads = 5; // Количество потоков
ExecutorService executor = Executors.newFixedThreadPool(numberOfThreads);
for (int i = 0; i < rows1; i++) {
final int row = i;
executor.execute(new Runnable() {
@Override
public void run() {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[row][j] += matrix1[row][k] * matrix2[k][j];
}
}
}
});
}
executor.shutdown();
while (!executor.isTerminated()) {
// Ожидаем завершения всех потоков
}
return result;
}
public static int[][] generateMatrix(int rows, int columns) {
int[][] matrix = new int[rows][columns];
for (int i = 0; i < rows; i++) {
for (int j = 0; j < columns; j++) {
matrix[i][j] = (int) (Math.random() * 10);
}
}
return matrix;
}
}

View File

@ -1,84 +0,0 @@
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
public class Matrix500x500 {
private static final int SIZE = 500;
public static void main(String[] args) {
int[][] matrix1 = generateMatrix(SIZE, SIZE);
int[][] matrix2 = generateMatrix(SIZE, SIZE);
long startTime = System.currentTimeMillis();
int[][] resultSequential = multiplyMatricesSequential(matrix1, matrix2);
long endTime = System.currentTimeMillis();
long sequentialTime = endTime - startTime;
startTime = System.currentTimeMillis();
int[][] resultParallel = multiplyMatricesParallel(matrix1, matrix2);
endTime = System.currentTimeMillis();
long parallelTime = endTime - startTime;
System.out.println("Sequential multiplication time: " + sequentialTime + " ms");
System.out.println("Parallel multiplication time: " + parallelTime + " ms");
}
public static int[][] multiplyMatricesSequential(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
for (int i = 0; i < rows1; i++) {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[i][j] += matrix1[i][k] * matrix2[k][j];
}
}
}
return result;
}
public static int[][] multiplyMatricesParallel(int[][] matrix1, int[][] matrix2) {
int rows1 = matrix1.length;
int columns1 = matrix1[0].length;
int columns2 = matrix2[0].length;
int[][] result = new int[rows1][columns2];
int numberOfThreads = 1; // Количество потоков
ExecutorService executor = Executors.newFixedThreadPool(numberOfThreads);
for (int i = 0; i < rows1; i++) {
final int row = i;
executor.execute(new Runnable() {
@Override
public void run() {
for (int j = 0; j < columns2; j++) {
for (int k = 0; k < columns1; k++) {
result[row][j] += matrix1[row][k] * matrix2[k][j];
}
}
}
});
}
executor.shutdown();
while (!executor.isTerminated()) {
// Ожидаем завершения всех потоков
}
return result;
}
public static int[][] generateMatrix(int rows, int columns) {
int[][] matrix = new int[rows][columns];
for (int i = 0; i < rows; i++) {
for (int j = 0; j < columns; j++) {
matrix[i][j] = (int) (Math.random() * 10);
}
}
return matrix;
}
}

View File

@ -1,29 +0,0 @@
### IntelliJ IDEA ###
out/
!**/src/main/**/out/
!**/src/test/**/out/
### Eclipse ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
bin/
!**/src/main/**/bin/
!**/src/test/**/bin/
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
### VS Code ###
.vscode/
### Mac OS ###
.DS_Store

View File

@ -1,105 +0,0 @@
# Лабораторная работа №6
## Задание
Кратко: реализовать нахождение детерминанта квадратной матрицы.
Подробно: в лабораторной работе требуется сделать два алгоритма: обычный и параллельный. В параллельном алгоритме предусмотреть ручное задание количества потоков, каждый из которых будет выполнять нахождение отдельной группы множителей.
## Ход работы
### Обычный алгоритм
```
private static BigDecimal findDeterminantGauss(double[][] matrix) {
int n = matrix.length;
BigDecimal det = BigDecimal.ONE;
for (int i = 0; i < n; i++) {
int maxRow = i;
for (int j = i + 1; j < n; j++) {
if (Math.abs(matrix[j][i]) > Math.abs(matrix[maxRow][i])) {
maxRow = j;
}
}
if (maxRow != i) {
double[] temp = matrix[i];
matrix[i] = matrix[maxRow];
matrix[maxRow] = temp;
det = det.multiply(BigDecimal.valueOf(-1));
}
for (int j = i + 1; j < n; j++) {
double factor = matrix[j][i] / matrix[i][i];
for (int k = i; k < n; k++) {
matrix[j][k] -= factor * matrix[i][k];
}
}
}
for (int i = 0; i < n; i++) {
det = det.multiply(BigDecimal.valueOf(matrix[i][i]));
}
return det;
}
```
### Параллельный алгоритм
```
private static BigDecimal findDeterminantGaussParallel(double[][] matrix, int threadsCount) {
int n = matrix.length;
final BigDecimal[] det = {BigDecimal.ONE};
ExecutorService executor = Executors.newFixedThreadPool(threadsCount);
for (int i = 0; i < n; i++) {
final int rowIdx = i;
int maxRow = rowIdx;
for (int j = rowIdx + 1; j < n; j++) {
if (Math.abs(matrix[j][rowIdx]) > Math.abs(matrix[maxRow][rowIdx])) {
maxRow = j;
}
}
if (maxRow != rowIdx) {
double[] temp = matrix[rowIdx];
matrix[rowIdx] = matrix[maxRow];
matrix[maxRow] = temp;
det[0] = det[0].multiply(BigDecimal.valueOf(-1));
}
executor.execute(() -> {
for (int j = rowIdx + 1; j < n; j++) {
double factor = matrix[j][rowIdx] / matrix[rowIdx][rowIdx];
for (int k = rowIdx; k < n; k++) {
matrix[j][k] -= factor * matrix[rowIdx][k];
}
}
});
det[0] = det[0].multiply(BigDecimal.valueOf(matrix[rowIdx][rowIdx]));
}
executor.shutdown();
try {
executor.awaitTermination(1, TimeUnit.DAYS);
} catch (InterruptedException e) {
e.printStackTrace();
}
return det[0];
}
```
## Результат
Была проверка времени выполнения алгоритма для матриц размером 100х100, 300х300, 500х500 с разным количеством потоков.
![img.png](img.png)
Из данного скриншота можно сделать вывод, что нахождение детерминанта для матрицы:
- 100х100 - обычный алгоритм работает лучше параллельного, но разница не сказать что значительная
- 300х300 - обычный алгоритм работает хуже параллельного, но при добавлении потоков параллельный алгоритм работает чуть хуже
- 500х500 - обычный алгоритм работает значительно лучше параллельного, но параллельный начинает показывать себя лучше при увеличении количества потоков (но обычный алгоритм все равно лучше)
Работоспособность показана в видео: [lab6.mp4](lab6.mp4)

Binary file not shown.

Before

Width:  |  Height:  |  Size: 62 KiB

Binary file not shown.

View File

@ -1,123 +0,0 @@
import java.math.BigDecimal;
import java.util.Arrays;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.TimeUnit;
public class Main {
public static double[][] generateMatrix(int n) {
double[][] matrix = new double[n][n];
for (int i = 0; i < n; i++) {
for (int j = 0; j < n; j++) {
matrix[i][j] = Math.round((Math.random() * 5));
}
}
return matrix;
}
private static BigDecimal findDeterminantGauss(double[][] matrix) {
int n = matrix.length;
BigDecimal det = BigDecimal.ONE;
for (int i = 0; i < n; i++) {
int maxRow = i;
for (int j = i + 1; j < n; j++) {
if (Math.abs(matrix[j][i]) > Math.abs(matrix[maxRow][i])) {
maxRow = j;
}
}
if (maxRow != i) {
double[] temp = matrix[i];
matrix[i] = matrix[maxRow];
matrix[maxRow] = temp;
det = det.multiply(BigDecimal.valueOf(-1));
}
for (int j = i + 1; j < n; j++) {
double factor = matrix[j][i] / matrix[i][i];
for (int k = i; k < n; k++) {
matrix[j][k] -= factor * matrix[i][k];
}
}
}
for (int i = 0; i < n; i++) {
det = det.multiply(BigDecimal.valueOf(matrix[i][i]));
}
return det;
}
private static BigDecimal findDeterminantGaussParallel(double[][] matrix, int threadsCount) {
int n = matrix.length;
final BigDecimal[] det = {BigDecimal.ONE};
ExecutorService executor = Executors.newFixedThreadPool(threadsCount);
for (int i = 0; i < n; i++) {
final int rowIdx = i;
int maxRow = rowIdx;
for (int j = rowIdx + 1; j < n; j++) {
if (Math.abs(matrix[j][rowIdx]) > Math.abs(matrix[maxRow][rowIdx])) {
maxRow = j;
}
}
if (maxRow != rowIdx) {
double[] temp = matrix[rowIdx];
matrix[rowIdx] = matrix[maxRow];
matrix[maxRow] = temp;
det[0] = det[0].multiply(BigDecimal.valueOf(-1));
}
executor.execute(() -> {
for (int j = rowIdx + 1; j < n; j++) {
double factor = matrix[j][rowIdx] / matrix[rowIdx][rowIdx];
for (int k = rowIdx; k < n; k++) {
matrix[j][k] -= factor * matrix[rowIdx][k];
}
}
});
det[0] = det[0].multiply(BigDecimal.valueOf(matrix[rowIdx][rowIdx]));
}
executor.shutdown();
try {
executor.awaitTermination(1, TimeUnit.DAYS);
} catch (InterruptedException e) {
e.printStackTrace();
}
return det[0];
}
public static void main(String[] args) {
run(100, 1);
run(100, 5);
run(300, 1);
run(300, 5);
run(500, 1);
run(500, 5);
}
public static void run(int n, int threadCount) {
System.out.println(String.format("Размер матрицы: %d х %d", n, n));
double[][] a = generateMatrix(n);
double[][] aClone = Arrays.copyOf(a, n);
long time = System.currentTimeMillis();
BigDecimal determinantGauss = findDeterminantGauss(a);
System.out.println("Время выполнения: " + (System.currentTimeMillis() - time) + "ms");
time = System.currentTimeMillis();
BigDecimal determinantGaussAsync = findDeterminantGaussParallel(aClone, threadCount);
System.out.println("Время параллельного выполнения: " + (System.currentTimeMillis() - time) + "ms, " +
"количество потоков: " + threadCount);
System.out.println();
}
}

View File

@ -1,28 +0,0 @@
## Задание
Эссе по вопросам:
- Какие алгоритмы и методы используются для балансировки нагрузки?
- Какие открытые и закрытые технологии существуют для балансировки нагрузки?
- Как осуществляется балансировка нагрузки на базах данных?
- Реверс-прокси как один из элементов балансировки нагрузки.
## Ответ
Балансировка нагрузки нужна для равномерного распределения запросов пользователей
и ресурсов в системе.
Для балансировки нагрузки используются различные алгоритмы и методы, например, Round Robin,
когда каждый запрос направляется поочередно на каждый сервер в кластере. Также есть метод Least Connection, когда запросы
направляются на мервер с наименьшим количеством активных соединений и Weighted Round Robin, который отличается
от обычного Round Robin тем, что у каждого сервера есть вес, который показывает его производительность, чтобы нагрузка у серверов
была более распределенной.
Существуют различные открытые и закрытые методы для балансировки нагрузки. Один из примеров для открытых технологий - nginx,
который был использован в одной из лабороторных работ. Он поддерживает различные методы балансировки нагрузки.
Касаемо закрытых технологий, в пример можно взять Citrix ADC, Kemp LoadMaster.
Балансировка нагрузки на базах данных осуществляется с помощью различных методов, самый популярный из которых - горизонтальное масштабирование,
где где данные разделены на узлы, которые выполняют обработку только лишь собственной части данных, что позволяет распределить нагрузку и улучшить производительность БД.
Реверс-прокси как элемент балансировки нагрузки является посредником между клиентом и сервером, принимая запросы клиентов
и перенеаправляя их на различный серверы, опираясь на их нагрузку, а затем передает ответ обратно пользователю.

View File

@ -1,25 +0,0 @@
# Лабораторная работа №8
## Задание
Эссе по вопросам:
- Зачем сложные системы пишутся в распределенном стиле, где каждое отдельное приложение функционально выполняет только ограниченный спектр задач?
- Для чего были созданы системы оркестрации приложений? Каким образом они упрощают/усложняют разработку и сопровождение распределенных систем?
- Для чего нужны очереди обработки сообщений и что может подразумеваться под сообщениями?
- Какие преимущества и недостатки распределенных приложений существуют на Ваш взгляд?
- Целесообразно ли в сложную распределенную систему внедрять параллельные вычисления? Приведите примеры, когда это нужно, а когда нет.
## Ответ
Сложные системы пишутся в распределенном стиле для того, чтобы обеспечить масштабируемость и отказоустойчивость, а также каждый отдельный сервис оптимизируется для конкретных задач.
Это упрощает разработку системы и распределяет нагрузку между ее компонентами.
Системы оркестрации приложений были созданы для того, чтобы управлять распределенными системами (обсепечивать контроль и координацию между сервисами систем).
Они упрощают разработку и сопровождение тем, что предоставляют дополнительные инструменты для работы с распределенными системами, но могут и усложнить разработку и сопровождение тем, что требуют дополнительного управления, персонала, и усложняют внедрение новых компонентов.
Очереди обработки сообщений нужны для обмена информацией и координации между компонентами системы. Под сообщениями могут подразумеваться инструкции, запросы или просто данные.
Одно из главных преимуществ распределенных систем - масштабируемость и распределение нагрузки на систему. Недостатки - сложность разработки, тестирования и синхронизации данных.
Внедрять в сложную распределенную систему параллельные вычисления нужно тогда, когда вычисления являются специализацией системы и являются большими по объему (например, при перемножении матриц 100х100 это было нецелесообразно, но в примере с матрицей 500х500 параллельное умножение сыграло большую роль в уменьшении времени выполнения данного действия).
Следовательно, это нужно тогда, когда вычисления большие, и не нужно, если операции относительно простые.

Binary file not shown.

Before

Width:  |  Height:  |  Size: 166 KiB

View File

@ -1,72 +0,0 @@
# Лабораторная работа 1.
### Задание
**Цель**: изучение современных технологий контейнеризации.
**Задачи**:
- Установить средство контейнеризации docker.
- Изучить применение и принципы docker.
- Изучить утилиту docker-compose и структуру файла docker-compose.yml.
- Развернуть не менее 3х различных сервисов при помощи docker-compose.
### Как запустить лабораторную работу
В директории с файлом характеристик docker-compose.yaml выполнить команду:
```
docker-compose -f docker-compose.yaml up
```
### Разворачивание сервисов
Выбранные сервисы:
- mediawiki
- wordpress
- gitea
- redmine
#### Разворачивание mediawiki
Конфигурации сервиса в `docker-compose.yaml`:
```yaml
mediawiki: # название сервиса
image: mediawiki # образ, который скачиывается с DockerHub
volumes:
- ./mediawiki_data:/var/data # создание volumes, который будет использоваться для хранения данных MediaWiki
ports:
- 8081:80 # открывает порт 8080 на хостовой машине, который будет проксирован на порт 81 внутри контейнера.
```
#### Разворачивание wordpress
```yaml
wordpress: # название сервиса
image: wordpress # образ, который скачиывается с DockerHub
volumes:
- ./wordpress_data:/var/data # создание volumes, который будет использоваться для хранения данных wordpress
ports:
- 8082:80 # открывает порт 8080 на хостовой машине, который будет проксирован на порт 82 внутри контейнера.
```
#### Разворачивание gitea
```yaml
gitea: # название сервиса
image: gitea/gitea # образ, который скачиывается с DockerHub
ports:
- 8083:80 # открывает порт 8080 на хостовой машине, который будет проксирован на порт 83 внутри контейнера.
volumes:
- ./gitea_data:/var/data # создание volumes, который будет использоваться для хранения данных gitea
```
### Запуск сервисов
![Сборка docker-compose](LaunchingServices.jpg)
![Разворачивание mediawiki](mediawiki.jpg)
![Разворачивание wordpress](wordpress.jpg)
![Разворачивание gitea](gitea.jpg)
### Видео
https://disk.yandex.ru/i/-5BiuM51iqj83A

View File

@ -1,20 +0,0 @@
version: '3'
services:
mediawiki: # название сервиса
image: mediawiki # образ, который скачиывается с DockerHub
volumes:
- ./mediawiki_data:/var/data # создание volumes, который будет использоваться для хранения данных MediaWiki
ports:
- 8081:80 # открывает порт 8080 на хостовой машине, который будет проксирован на порт 81 внутри контейнера.
wordpress: # название сервиса
image: wordpress # образ, который скачиывается с DockerHub
volumes:
- ./wordpress_data:/var/data # создание volumes, который будет использоваться для хранения данных wordpress
ports:
- 8082:80 # открывает порт 8080 на хостовой машине, который будет проксирован на порт 82 внутри контейнера.
gitea: # название сервиса
image: gitea/gitea # образ, который скачиывается с DockerHub
ports:
- 8083:80 # открывает порт 8080 на хостовой машине, который будет проксирован на порт 83 внутри контейнера.
volumes:
- ./gitea_data:/var/data # создание volumes, который будет использоваться для хранения данных gitea

Binary file not shown.

Before

Width:  |  Height:  |  Size: 186 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 103 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 149 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 59 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 186 KiB

View File

@ -1,194 +0,0 @@
# Лабораторная работа 2.
### Задание
**Цель**: изучение техники создания простого распределённого приложения.
**Задачи**:
- Разработать два приложения такие, что результат первого является исходными данными для второго.
- Изучить файлы сборки образов docker и разработать их для созданных приложений.
- Собрать файл docker-compose.yml для запуска приложений.
- Разобраться с монтированием каталогов из хост-системы.
**Вариант**:
- Ищет в каталоге /var/data файл с самым коротким названием и перекладывает его в /var/result/data.txt.
- Сохраняет произведение первого и последнего числа из файла /var/data/data.txt в /var/result/result.txt.
### Как запустить лабораторную работу
В директории с файлом характеристик docker-compose.yaml выполнить команду:
```
docker-compose -f docker-compose.yaml up
```
### Описание лабораторной работы
#### Входные данный
В качестве входных данных представлены следующие файлы с соответствующим содержанием:
```
deadlock - file1: 9 5 0 1
diamond - file2: 3 5 8
himera - file3: 4 6 6
kjjuriositi - file4: 3 5 3
nitric-oxide - file5: 3 1 7
V3001TH - file6: 7 2 6
za - file7: 2 4 4
```
#### Первое приложение
Первое приложение выполняет задачу: Ищет в каталоге /var/data файл с самым коротким названием и перекладывает его в /var/result/data.txt.
Для этого напишем следующий код:
```java
File dataDir = new File("/var/data");
File resultDir = new File("/var/result");
// Получаем все файлы в каталоге /var/data
File[] files = dataDir.listFiles();
if (files != null && files.length > 0) {
// Ищем файл с самым коротким названием
File shortestFileName = files[0];
for (File file : files) {
if (file.getName().length() < shortestFileName.getName().length()) {
shortestFileName = file;
}
}
// Перекладываем файл в /var/result/data.txt
File destination = new File(resultDir, "data.txt");
try {
Files.move(shortestFileName.toPath(), destination.toPath(), StandardCopyOption.REPLACE_EXISTING);
System.out.println("Файл успешно перемещен.");
} catch (IOException e) {
System.out.println("Ошибка при перемещении файла: " + e.getMessage());
}
} else {
System.out.println("В каталоге /var/data нет файлов.");
}
```
Также создадим *Dockerfile*, который используется для создания образа контейнера данного приложения.
```dockerfile
# Используем образ Java для компиляции и запуска кода
FROM openjdk:11
# Создание директорий для файлов
RUN ["mkdir", "/var/data"]
RUN ["mkdir", "/var/result"]
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /app
# Копируем исходный код в контейнер
COPY src/Main.java .
# Компилируем исходный код
RUN javac Main.java
# Устанавливаем команду запуска приложения
CMD ["java", "Main"]
```
#### Второе приложение
Второе приложение выполняет задачу: Сохраняет произведение первого и последнего числа из файла /var/data/data.txt в /var/result/result.txt.
Для этого напишем следующий код:
```java
String inputFile = "/var/result/data.txt";
String outputFile = "/var/result/result.txt";
try (BufferedReader reader = new BufferedReader(new FileReader(inputFile));
BufferedWriter writer = new BufferedWriter(new FileWriter(outputFile))) {
String line;
while ((line = reader.readLine()) != null) {
String[] numbers = line.split("\\s+");
if (numbers.length > 0) {
int firstNumber = Integer.parseInt(numbers[0]);
int lastNumber = Integer.parseInt(numbers[numbers.length - 1]);
int result = firstNumber * lastNumber;
writer.write(String.valueOf(result));
writer.newLine();
}
}
} catch (IOException e) {
e.printStackTrace();
}
```
Также создадим *Dockerfile*, который используется для создания образа контейнера данного приложения.
```dockerfile
# Используем образ Java для компиляции и запуска кода
FROM openjdk:11
# Создание директорий для файлов
RUN ["mkdir", "/var/data"]
RUN ["mkdir", "/var/result"]
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /app
# Копируем исходный код в контейнер
COPY src/Main.java .
# Компилируем исходный код
RUN javac Main.java
# Устанавливаем команду запуска приложения
CMD ["java", "Main"]
```
### Разворачивание сервисов
Создадим файл docker-compose.yml, который определяет настройки для запуска нескольких сервисов в Docker с использованием Docker Compose.
Первый блок будет определять первый сервис worker-1. Он будет создан на основе контекста сборки /worker-1 и файла Dockerfile. Затем, указанные тома (volumes) будут примонтированы в контейнере. В данном случае, директория .\data на хосте будет примонтирована в /var/data внутри контейнера, а директория .\result на хосте будет примонтирована в /var/result внутри контейнера.
```dockerfile
worker-1:
build:
context: /worker-1
dockerfile: Dockerfile
volumes:
- .\data:/var/data
- .\result:/var/result
```
Второй блок будет определять второй сервис worker-2. Он зависит от сервиса worker-1, поэтому worker-1 будет запущен перед worker-2. Затем, он также будет создан на основе контекста сборки /worker-2 и файла Dockerfile. Аналогично, указанные тома будут примонтированы в контейнере.
```dockerfile
worker-2:
depends_on:
- worker-1
build:
context: /worker-2
dockerfile: Dockerfile
volumes:
- .\result:/var/data
- .\result:/var/result
```
### Запуск
![Сборка docker-compose](LaunchingServices.jpg)
![Первое приложение](FirstApp.jpg)
![Второе приложение](SecondApp.jpg)
Файлы директории data:
```
deadlock - file1: 9 5 0 1
diamond - file2: 3 5 8
himera - file3: 4 6 6
kjjuriositi - file4: 3 5 3
nitric-oxide - file5: 3 1 7
V3001TH - file6: 7 2 6
za - file7: 2 4 4
```
Файлы директории result:
```
data: 2 4 4
result: 8
```
### Видео
https://disk.yandex.ru/i/dFIB-vOqlAip9g

Binary file not shown.

Before

Width:  |  Height:  |  Size: 60 KiB

View File

@ -1 +0,0 @@
7 2 6

View File

@ -1 +0,0 @@
9 5 0 1

View File

@ -1 +0,0 @@
3 5 8

View File

@ -1,19 +0,0 @@
version: '3'
services:
worker-1:
build:
context: /worker-1
dockerfile: Dockerfile
volumes:
- .\data:/var/data
- .\result:/var/result
worker-2:
depends_on:
- worker-1
build:
context: /worker-2
dockerfile: Dockerfile
volumes:
- .\result:/var/data
- .\result:/var/result

View File

@ -1 +0,0 @@
4 6 6

View File

@ -1 +0,0 @@
24

View File

@ -1,29 +0,0 @@
### IntelliJ IDEA ###
out/
!**/src/main/**/out/
!**/src/test/**/out/
### Eclipse ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
bin/
!**/src/main/**/bin/
!**/src/test/**/bin/
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
### VS Code ###
.vscode/
### Mac OS ###
.DS_Store

View File

@ -1,13 +0,0 @@
# Используем образ Java для компиляции и запуска кода
FROM openjdk:11
# Создание директорий для файлов
RUN ["mkdir", "/var/data"]
RUN ["mkdir", "/var/result"]
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /app
# Копируем исходный код в контейнер
COPY src/Main.java .
# Компилируем исходный код
RUN javac Main.java
# Устанавливаем команду запуска приложения
CMD ["java", "Main"]

View File

@ -1,32 +0,0 @@
import java.io.File;
import java.io.IOException;
import java.nio.file.Files;
import java.nio.file.StandardCopyOption;
public class Main {
public static void main(String[] args) {
File dataDir = new File("/var/data");
File resultDir = new File("/var/result");
// Получаем все файлы в каталоге
File[] files = dataDir.listFiles();
if (files != null && files.length > 0) {
// Ищем файл с самым коротким названием
File shortestFileName = files[0];
for (File file : files) {
if (file.getName().length() < shortestFileName.getName().length()) {
shortestFileName = file;
}
}
// Перекладываем файл
File destination = new File(resultDir, "data.txt");
try {
Files.move(shortestFileName.toPath(), destination.toPath(), StandardCopyOption.REPLACE_EXISTING);
System.out.println("Приложение 1: Файл успешно перемещен.");
} catch (IOException e) {
System.out.println("Приложение 1: Ошибка при перемещении файла: " + e.getMessage());
}
} else {
System.out.println("Приложение 1: В каталоге /var/data нет файлов.");
}
}
}

View File

@ -1,11 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<module type="JAVA_MODULE" version="4">
<component name="NewModuleRootManager" inherit-compiler-output="true">
<exclude-output />
<content url="file://$MODULE_DIR$">
<sourceFolder url="file://$MODULE_DIR$/src" isTestSource="false" />
</content>
<orderEntry type="inheritedJdk" />
<orderEntry type="sourceFolder" forTests="false" />
</component>
</module>

View File

@ -1,29 +0,0 @@
### IntelliJ IDEA ###
out/
!**/src/main/**/out/
!**/src/test/**/out/
### Eclipse ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
bin/
!**/src/main/**/bin/
!**/src/test/**/bin/
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
### VS Code ###
.vscode/
### Mac OS ###
.DS_Store

View File

@ -1,13 +0,0 @@
# Используем образ Java для компиляции и запуска кода
FROM openjdk:11
# Создание директорий для файлов
RUN ["mkdir", "/var/data"]
RUN ["mkdir", "/var/result"]
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /app
# Копируем исходный код в контейнер
COPY src/Main.java .
# Компилируем исходный код
RUN javac Main.java
# Устанавливаем команду запуска приложения
CMD ["java", "Main"]

View File

@ -1,32 +0,0 @@
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.FileReader;
import java.io.FileWriter;
import java.io.IOException;
public class Main {
public static void main(String[] args) {
String inputFile = "/var/result/data.txt";
String outputFile = "/var/result/result.txt";
try (BufferedReader reader = new BufferedReader(new FileReader(inputFile));
BufferedWriter writer = new BufferedWriter(new FileWriter(outputFile))) {
String line;
while ((line = reader.readLine()) != null) {
String[] numbers = line.split("\\s+");
if (numbers.length > 0) {
int firstNumber = Integer.parseInt(numbers[0]);
int lastNumber = Integer.parseInt(numbers[numbers.length - 1]);
int result = firstNumber * lastNumber;
System.out.println("Приложение 2: Результат умножения первого и последнего числа: " + result);
writer.write(String.valueOf(result));
writer.newLine();
}
}
} catch (IOException e) {
e.printStackTrace();
}
}
}

View File

@ -1,11 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<module type="JAVA_MODULE" version="4">
<component name="NewModuleRootManager" inherit-compiler-output="true">
<exclude-output />
<content url="file://$MODULE_DIR$">
<sourceFolder url="file://$MODULE_DIR$/src" isTestSource="false" />
</content>
<orderEntry type="inheritedJdk" />
<orderEntry type="sourceFolder" forTests="false" />
</component>
</module>

View File

@ -1,280 +0,0 @@
# Лабораторная работа 3.
### Задание
**Цель**: изучение современных технологий контейнеризации.
**Задачи**:
- Установить средство контейнеризации docker.
- Изучить применение и принципы docker.
- Изучить утилиту docker-compose и структуру файла docker-compose.yml.
- Развернуть не менее 3х различных сервисов при помощи docker-compose.
- Оформить отчёт в формате Markdown и создать Pull Request в git-репозитории.
### Как запустить лабораторную работу
В директории с файлом характеристик docker-compose.yaml выполнить команду:
```
docker-compose -f docker-compose.yaml up
```
### Описание лабораторной работы
#### Создание базы данных
Каждый сервис реализует CRUD-операции, поэтому были выбраны следующие сущности, соответствующие теме диплома: упражнение и тренировка. Эти сущности связаны отношением один ко многим. Созданные таблицы базы данных:
```sql
-- Создание таблицы тренировок
CREATE TABLE t_training (
id SERIAL PRIMARY KEY,
name VARCHAR(255) NOT NULL,
description VARCHAR(255) NOT NULL
);
-- Создание таблицы упражнений
CREATE TABLE t_exercise (
id SERIAL PRIMARY KEY,
name VARCHAR(255) NOT NULL,
description VARCHAR(255) NOT NULL,
id_training INTEGER,
FOREIGN KEY (id_training) REFERENCES t_training(id)
);
```
Также в файле `docker-compose.yaml` создадим соответствующий сервис:
```dockerfile
#database
postgresql:
#configuration
image: postgres:latest
ports:
- 5432:5432
environment:
POSTGRES_PASSWORD: admin
POSTGRES_USER: admin
POSTGRES_DB: traininarium
volumes:
- ./database.sql:/docker-entrypoint-initdb.d/database.sql
restart: always
networks:
- mynetwork
```
- `image: postgres:latest` указывает, что мы хотим использовать последнюю версию образа `PostgreSQL`.
- `ports: - 5432:5432` пробрасывает порт 5432 контейнера (стандартный порт PostgreSQL) на порт 5432 хоста, чтобы можно было подключаться к базе данных с внешнего устройства.
- `environment` определяет переменные окружения, которые будут использоваться контейнером. В данном случае, устанавливаются значения для переменных `POSTGRES_PASSWORD`, `POSTGRES_USER` и `POSTGRES_DB`.
- `volumes` указывает путь к файлу `database.sql` в текущей директории, который будет использоваться для инициализации базы данных при запуске контейнера.
- `restart: always` гарантирует, что контейнер будет перезапущен автоматически, если он остановится или перезагрузится.
- `networks` определяет сеть, к которой будет присоединен контейнер. В данном случае, контейнер будет присоединен к сети с именем `mynetwork`.
В итоге будет создан контейнер с базой данных `PostgreSQL`, настроенной с указанными переменными окружения, проброшенным портом и файлом `database.sql` для инициализации базы данных.
#### Создание микросервиса *Упражнения*
После реализации необходимых элементов микросервиса, таких как: controller, model, modelDTO, repository и service, создадим конфигурационный файл Dockerfile, в котором пропишем следующее:
```dockerfile
FROM openjdk:17-jdk
WORKDIR /app
COPY ./exercise-app/build/libs/exercise-app-0.0.1-SNAPSHOT.jar /app/exercise-app-0.0.1-SNAPSHOT.jar
EXPOSE 8081
CMD ["java", "-jar", "exercise-app-0.0.1-SNAPSHOT.jar"]
```
В данном файле мы указываем базовый образ, который будет использован для создания контейнера (*OpenJDK* версии 17 с установленным *JDK*); устанавливаем рабочую директорию внутри контейнера, где будут размещены файлы приложения; указываем, что приложение внутри контейнера будет слушать на порту 8081 и определяем команду, которая будет выполнена при запуске контейнера, а именно запуск приложения *Java* из файла `exercise-app-0.0.1-SNAPSHOT.jar` внутри контейнера.
Также в файле `docker-compose.yaml` создадим соответствующий сервис:
```dockerfile
exercise-service:
build:
context: .
dockerfile: ./exercise-app/Dockerfile
ports:
- 8081:8081
environment:
DATASOURCE_URL: jdbc:postgresql://postgresql:5432/traininarium
DATASOURCE_USERNAME: admin
DATASOURCE_PASSWORD: admin
restart: always
#wait build database
depends_on:
- postgresql
networks:
- mynetwork
```
- `exercise-service` является именем сервиса, который будет создан и запущен в контейнере.
- `context: .` указывает, что контекстом для сборки Docker-образа является текущая директория.
- `dockerfile: ./exercise-app/Dockerfile` указывает путь к `Dockerfile`, который будет использоваться для сборки образа.
- `ports` определяет проброс портов между хостом и контейнером.
`8081:8081` указывает, что порт 8081 на хосте будет проброшен на порт 8081 внутри контейнера.
- `environment` определяет переменные окружения, которые будут доступны внутри контейнера.
`DATASOURCE_URL: jdbc:postgresql://postgresql:5432/traininarium` определяет URL для подключения к базе данных `PostgreSQL`.
`DATASOURCE_USERNAME: admin` определяет имя пользователя для подключения к базе данных.
`DATASOURCE_PASSWORD: admin` определяет пароль для подключения к базе данных.
- `restart: always` указывает, что контейнер будет автоматически перезапущен в случае его остановки.
depends_on определяет зависимость данного сервиса от другого сервиса.
- `postgresql` указывает, что данный сервис зависит от сервиса с именем `postgresql`.
- `mynetwork` указывает, что контейнер будет присоединен к сети с именем `mynetwork`.
#### Создание микросервиса *Тренировки*
Аналогично реализуем controller, model, modelDTO, repository и service для микросервиса *Тренировки*, но дополняя кодом отправки запроса к сервису *Упражнений*. Пример запроса к сервису *Упражнений*:
```java
public List<TrainingDto> findAllTraining() throws Exception {
RestTemplate restTemplate = new RestTemplate();
HttpEntity<String> entity = new HttpEntity<>(new HttpHeaders());
List<TrainingDto> trainingDtos = new ArrayList<>();
for (Training training : trainingRepository.findAll()) {
TrainingDto trainingDto = new TrainingDto();
trainingDto.setId(training.getId());
trainingDto.setName(training.getName());
trainingDto.setDescription(training.getDescription());
ResponseEntity<String> response = restTemplate.exchange(
"http://" + exercise_service_host + "/exercise/training/" + trainingDto.getId(), HttpMethod.GET, entity, String.class);
if (response.getStatusCode().is2xxSuccessful()) {
String responseBody = response.getBody();
ObjectMapper objectMapper = new ObjectMapper();
List<ExerciseDto> exerciseDtos;
try {
exerciseDtos = objectMapper.readValue(responseBody, ArrayList.class);
trainingDto.setExercises(exerciseDtos);
} catch (JsonProcessingException e) {
throw new Exception("Не удалось десериализовать тело запроса в объект");
}
} else {
throw new Exception("Ошибка получения объекта");
}
trainingDtos.add(trainingDto);
}
return trainingDtos;
}
```
Теперь создадим конфигурационный файл Dockerfile, в котором пропишем следующее:
```dockerfile
FROM openjdk:17-jdk
WORKDIR /app
COPY ./training-app/build/libs/training-app-0.0.1-SNAPSHOT.jar /app/training-app-0.0.1-SNAPSHOT.jar
EXPOSE 8082
CMD ["java", "-jar", "training-app-0.0.1-SNAPSHOT.jar"]
```
В данном файле мы указываем базовый образ, который будет использован для создания контейнера (*OpenJDK* версии 17 с установленным *JDK*); устанавливаем рабочую директорию внутри контейнера, где будут размещены файлы приложения; указываем, что приложение внутри контейнера будет слушать на порту 8082; копируем файл `training-app-0.0.1-SNAPSHOT.jar` из локальной директории `./training-app/build/libs/` внутрь контейнера в папку `/app` и определяем команду, которая будет выполнена при запуске контейнера, а именно запуск приложения Java из файла `training-app-0.0.1-SNAPSHOT.jar` внутри контейнера.
Также в файле `docker-compose.yaml` создадим соответствующий сервис:
```dockerfile
training-service:
build:
context: .
dockerfile: ./training-app/Dockerfile
ports:
- 8082:8082
environment:
EXERCISE_SERVICE_HOST: exercise-service:8081
DATASOURCE_URL: jdbc:postgresql://postgresql:5432/traininarium
DATASOURCE_USERNAME: admin
DATASOURCE_PASSWORD: admin
restart: always
#wait build database
depends_on:
- postgresql
networks:
- mynetwork
```
- `training-service` является именем сервиса, который будет создан и запущен в контейнере.
- `context: .` указывает, что контекстом для сборки Docker-образа является текущая директория.
- `dockerfile: ./training-app/Dockerfile` указывает путь к `Dockerfile`, который будет использоваться для сборки образа.
- `8082:8082` указывает, что порт 8082 на хосте будет проброшен на порт 8082 внутри контейнера.
- `environment` определяет переменные окружения, которые будут доступны внутри контейнера.
`EXERCISE_SERVICE_HOST: exercise-service:8081` определяет хост и порт для подключения к сервису `exercise-service`.
`DATASOURCE_URL: jdbc:postgresql://postgresql:5432/traininarium` определяет URL для подключения к базе данных `PostgreSQL`.
`DATASOURCE_USERNAME: admin` определяет имя пользователя для подключения к базе данных.
`DATASOURCE_PASSWORD: admin` определяет пароль для подключения к базе данных.
- `restart: always` указывает, что контейнер будет автоматически перезапущен в случае его остановки.
- `depends_on` определяет зависимость данного сервиса от другого сервиса, данный сервис зависит от сервиса с именем `postgresql`.
- `mynetwork` указывает, что контейнер будет присоединен к сети с именем `mynetwork`.
#### Реализация gateway при помощи *nginx*
Для того, чтобы использовать *Nginx* для обработки HTTP-запросов и маршрутизации их к соответствующим сервисам, создадим файл конфигурации *Nginx*:
```
events {
worker_connections 1024;
}
http {
upstream exercise-service {
server exercise-service:8081;
}
upstream training-service {
server training-service:8082;
}
server {
listen 80;
listen [::]:80;
server_name localhost;
location /exercise-service/ {
proxy_pass http://exercise-service/;
}
location /training-service/ {
proxy_pass http://training-service/;
}
}
}
```
- `events` определяет настройки событий для сервера *Nginx*.
- `worker_connections 1024` указывает максимальное количество одновременных соединений, которые могут быть обработаны сервером.
- `http` определяет настройки HTTP-сервера *Nginx*.
- `upstream` определяет группу серверов, которые могут обрабатывать запросы.
`exercise-service` определяет группу серверов с именем `exercise-service`, в которой находится только один сервер `exercise-service:8081`.
`training-service` определяет группу серверов с именем `training-service`, в которой находится только один сервер `training-service:8082`.
- `server` определяет настройки для конкретного виртуального сервера.
- `listen 80` указывает на порт, на котором сервер будет слушать входящие HTTP-запросы.
- `listen [::]:80` указывает на IPv6-адрес и порт, на котором сервер будет слушать входящие HTTP-запросы.
- `server_name localhost` указывает имя сервера.
- `location /exercise-service/` определяет местоположение для обработки запросов, которые начинаются с `/exercise-service/`.
`proxy_pass http://exercise-service/` указывает, что все запросы, начинающиеся с `/exercise-service/`, должны быть перенаправлены на группу серверов `exercise-service`.
- `location /training-service/` определяет местоположение для обработки запросов, которые начинаются с `/training-service/`.
`proxy_pass http://training-service/` указывает, что все запросы, начинающиеся с `/training-service/`, должны быть перенаправлены на группу серверов `training-service`.
Таким образом, при запуске сервера *Nginx* с использованием этого конфигурационного файла, сервер будет слушать входящие HTTP-запросы на порту 80 и маршрутизировать запросы, начинающиеся с `/exercise-service/`, на группу серверов `exercise-service`, а запросы, начинающиеся с `/training-service/`, на группу серверов `training-service`.
Далее в файле `docker-compose.yaml` создадим соответствующий сервис:
```dockerfile
nginx:
#configuration
image: nginx:latest
ports:
- 80:80
volumes:
- ./nginx.conf:/etc/nginx/nginx.conf
restart: always
depends_on:
- training-service
- exercise-service
networks:
- mynetwork
```
- `nginx` - это название сервиса, который будет запущен в контейнере.
- `image: nginx:latest` указывает на использование последней версии образа *Nginx* из *Docker Hub*.
- `80:80` пробрасывает порт 80 контейнера на порт 80 хостовой машины.
- `volumes` определяет привязку тома между контейнером и хостовой машиной.
- `./nginx.conf:/etc/nginx/nginx.conf` привязывает файл `nginx.conf` из текущего рабочего каталога хостовой машины к файлу `nginx.conf` внутри контейнера *Nginx*. Это позволяет настроить *Nginx* с помощью внешнего файла конфигурации.
- `restart: always` указывает, что контейнер должен быть автоматически перезапущен при его остановке или падении.
- `depends_on` указывает на зависимость этого сервиса от других сервисов.
- `training-service` указывает, что контейнер Nginx должен быть запущен после контейнера `training-service`.
- `exercise-service` указывает, что контейнер Nginx должен быть запущен после контейнера `exercise-service`.
- `networks` определяет сети, к которым будет присоединен контейнер.
- `mynetwork` добавляет контейнер в сеть с именем `mynetwork`.
### Видео
https://disk.yandex.ru/i/OYPw_Tzl0QrzIw

View File

@ -1,14 +0,0 @@
-- Создание таблицы тренировок
CREATE TABLE t_training (
id SERIAL PRIMARY KEY,
name VARCHAR(255) NOT NULL,
description VARCHAR(255) NOT NULL
);
-- Создание таблицы упражнений
CREATE TABLE t_exercise (
id SERIAL PRIMARY KEY,
name VARCHAR(255) NOT NULL,
description VARCHAR(255) NOT NULL,
id_training INTEGER,
FOREIGN KEY (id_training) REFERENCES t_training(id)
);

View File

@ -1,73 +0,0 @@
version: '3'
networks:
mynetwork:
driver: bridge
#all necessary containers(services)
services:
#database
postgresql:
#configuration
image: postgres:latest
ports:
- 5432:5432
environment:
POSTGRES_PASSWORD: admin
POSTGRES_USER: admin
POSTGRES_DB: traininarium
volumes:
- ./database.sql:/docker-entrypoint-initdb.d/database.sql
restart: always
networks:
- mynetwork
exercise-service:
build:
context: .
dockerfile: ./exercise-app/Dockerfile
ports:
- 8081:8081
environment:
DATASOURCE_URL: jdbc:postgresql://postgresql:5432/traininarium
DATASOURCE_USERNAME: admin
DATASOURCE_PASSWORD: admin
restart: always
#wait build database
depends_on:
- postgresql
networks:
- mynetwork
training-service:
build:
context: .
dockerfile: ./training-app/Dockerfile
ports:
- 8082:8082
environment:
EXERCISE_SERVICE_HOST: exercise-service:8081
DATASOURCE_URL: jdbc:postgresql://postgresql:5432/traininarium
DATASOURCE_USERNAME: admin
DATASOURCE_PASSWORD: admin
restart: always
#wait build database
depends_on:
- postgresql
networks:
- mynetwork
nginx:
#configuration
image: nginx:latest
ports:
- 80:80
volumes:
- ./nginx.conf:/etc/nginx/nginx.conf
restart: always
depends_on:
- training-service
- exercise-service
networks:
- mynetwork

View File

@ -1,37 +0,0 @@
HELP.md
.gradle
build/
!gradle/wrapper/gradle-wrapper.jar
!**/src/main/**/build/
!**/src/test/**/build/
### STS ###
.apt_generated
.classpath
.factorypath
.project
.settings
.springBeans
.sts4-cache
bin/
!**/src/main/**/bin/
!**/src/test/**/bin/
### IntelliJ IDEA ###
.idea
*.iws
*.iml
*.ipr
out/
!**/src/main/**/out/
!**/src/test/**/out/
### NetBeans ###
/nbproject/private/
/nbbuild/
/dist/
/nbdist/
/.nb-gradle/
### VS Code ###
.vscode/

View File

@ -1,7 +0,0 @@
FROM openjdk:17-jdk
WORKDIR /app
COPY ./exercise-app/build/libs/exercise-app-0.0.1-SNAPSHOT.jar /app/exercise-app-0.0.1-SNAPSHOT.jar
EXPOSE 8081
CMD ["java", "-jar", "exercise-app-0.0.1-SNAPSHOT.jar"]

View File

@ -1,42 +0,0 @@
plugins {
id 'java'
id 'org.springframework.boot' version '3.1.5'
id 'io.spring.dependency-management' version '1.1.3'
}
group = 'com.services'
version = '0.0.1-SNAPSHOT'
java {
sourceCompatibility = '17'
}
configurations {
compileOnly {
extendsFrom annotationProcessor
}
}
repositories {
mavenCentral()
}
dependencies {
implementation 'org.springframework.boot:spring-boot-starter-data-jpa'
implementation 'org.springframework.boot:spring-boot-starter-validation'
implementation 'org.springframework.boot:spring-boot-starter-web'
implementation 'org.springframework.boot:spring-boot-devtools'
implementation 'org.springdoc:springdoc-openapi-starter-webmvc-ui:2.0.3'
compileOnly 'org.projectlombok:lombok'
runtimeOnly 'org.postgresql:postgresql'
annotationProcessor 'org.projectlombok:lombok'
testImplementation 'org.springframework.boot:spring-boot-starter-test'
}
tasks.named('bootBuildImage') {
builder = 'paketobuildpacks/builder-jammy-base:latest'
}
tasks.named('test') {
useJUnitPlatform()
}

View File

@ -1,7 +0,0 @@
distributionBase=GRADLE_USER_HOME
distributionPath=wrapper/dists
distributionUrl=https\://services.gradle.org/distributions/gradle-8.4-bin.zip
networkTimeout=10000
validateDistributionUrl=true
zipStoreBase=GRADLE_USER_HOME
zipStorePath=wrapper/dists

View File

@ -1,249 +0,0 @@
#!/bin/sh
#
# Copyright © 2015-2021 the original authors.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
##############################################################################
#
# Gradle start up script for POSIX generated by Gradle.
#
# Important for running:
#
# (1) You need a POSIX-compliant shell to run this script. If your /bin/sh is
# noncompliant, but you have some other compliant shell such as ksh or
# bash, then to run this script, type that shell name before the whole
# command line, like:
#
# ksh Gradle
#
# Busybox and similar reduced shells will NOT work, because this script
# requires all of these POSIX shell features:
# * functions;
# * expansions «$var», «${var}», «${var:-default}», «${var+SET}»,
# «${var#prefix}», «${var%suffix}», and «$( cmd )»;
# * compound commands having a testable exit status, especially «case»;
# * various built-in commands including «command», «set», and «ulimit».
#
# Important for patching:
#
# (2) This script targets any POSIX shell, so it avoids extensions provided
# by Bash, Ksh, etc; in particular arrays are avoided.
#
# The "traditional" practice of packing multiple parameters into a
# space-separated string is a well documented source of bugs and security
# problems, so this is (mostly) avoided, by progressively accumulating
# options in "$@", and eventually passing that to Java.
#
# Where the inherited environment variables (DEFAULT_JVM_OPTS, JAVA_OPTS,
# and GRADLE_OPTS) rely on word-splitting, this is performed explicitly;
# see the in-line comments for details.
#
# There are tweaks for specific operating systems such as AIX, CygWin,
# Darwin, MinGW, and NonStop.
#
# (3) This script is generated from the Groovy template
# https://github.com/gradle/gradle/blob/HEAD/subprojects/plugins/src/main/resources/org/gradle/api/internal/plugins/unixStartScript.txt
# within the Gradle project.
#
# You can find Gradle at https://github.com/gradle/gradle/.
#
##############################################################################
# Attempt to set APP_HOME
# Resolve links: $0 may be a link
app_path=$0
# Need this for daisy-chained symlinks.
while
APP_HOME=${app_path%"${app_path##*/}"} # leaves a trailing /; empty if no leading path
[ -h "$app_path" ]
do
ls=$( ls -ld "$app_path" )
link=${ls#*' -> '}
case $link in #(
/*) app_path=$link ;; #(
*) app_path=$APP_HOME$link ;;
esac
done
# This is normally unused
# shellcheck disable=SC2034
APP_BASE_NAME=${0##*/}
# Discard cd standard output in case $CDPATH is set (https://github.com/gradle/gradle/issues/25036)
APP_HOME=$( cd "${APP_HOME:-./}" > /dev/null && pwd -P ) || exit
# Use the maximum available, or set MAX_FD != -1 to use that value.
MAX_FD=maximum
warn () {
echo "$*"
} >&2
die () {
echo
echo "$*"
echo
exit 1
} >&2
# OS specific support (must be 'true' or 'false').
cygwin=false
msys=false
darwin=false
nonstop=false
case "$( uname )" in #(
CYGWIN* ) cygwin=true ;; #(
Darwin* ) darwin=true ;; #(
MSYS* | MINGW* ) msys=true ;; #(
NONSTOP* ) nonstop=true ;;
esac
CLASSPATH=$APP_HOME/gradle/wrapper/gradle-wrapper.jar
# Determine the Java command to use to start the JVM.
if [ -n "$JAVA_HOME" ] ; then
if [ -x "$JAVA_HOME/jre/sh/java" ] ; then
# IBM's JDK on AIX uses strange locations for the executables
JAVACMD=$JAVA_HOME/jre/sh/java
else
JAVACMD=$JAVA_HOME/bin/java
fi
if [ ! -x "$JAVACMD" ] ; then
die "ERROR: JAVA_HOME is set to an invalid directory: $JAVA_HOME
Please set the JAVA_HOME variable in your environment to match the
location of your Java installation."
fi
else
JAVACMD=java
if ! command -v java >/dev/null 2>&1
then
die "ERROR: JAVA_HOME is not set and no 'java' command could be found in your PATH.
Please set the JAVA_HOME variable in your environment to match the
location of your Java installation."
fi
fi
# Increase the maximum file descriptors if we can.
if ! "$cygwin" && ! "$darwin" && ! "$nonstop" ; then
case $MAX_FD in #(
max*)
# In POSIX sh, ulimit -H is undefined. That's why the result is checked to see if it worked.
# shellcheck disable=SC2039,SC3045
MAX_FD=$( ulimit -H -n ) ||
warn "Could not query maximum file descriptor limit"
esac
case $MAX_FD in #(
'' | soft) :;; #(
*)
# In POSIX sh, ulimit -n is undefined. That's why the result is checked to see if it worked.
# shellcheck disable=SC2039,SC3045
ulimit -n "$MAX_FD" ||
warn "Could not set maximum file descriptor limit to $MAX_FD"
esac
fi
# Collect all arguments for the java command, stacking in reverse order:
# * args from the command line
# * the main class name
# * -classpath
# * -D...appname settings
# * --module-path (only if needed)
# * DEFAULT_JVM_OPTS, JAVA_OPTS, and GRADLE_OPTS environment variables.
# For Cygwin or MSYS, switch paths to Windows format before running java
if "$cygwin" || "$msys" ; then
APP_HOME=$( cygpath --path --mixed "$APP_HOME" )
CLASSPATH=$( cygpath --path --mixed "$CLASSPATH" )
JAVACMD=$( cygpath --unix "$JAVACMD" )
# Now convert the arguments - kludge to limit ourselves to /bin/sh
for arg do
if
case $arg in #(
-*) false ;; # don't mess with options #(
/?*) t=${arg#/} t=/${t%%/*} # looks like a POSIX filepath
[ -e "$t" ] ;; #(
*) false ;;
esac
then
arg=$( cygpath --path --ignore --mixed "$arg" )
fi
# Roll the args list around exactly as many times as the number of
# args, so each arg winds up back in the position where it started, but
# possibly modified.
#
# NB: a `for` loop captures its iteration list before it begins, so
# changing the positional parameters here affects neither the number of
# iterations, nor the values presented in `arg`.
shift # remove old arg
set -- "$@" "$arg" # push replacement arg
done
fi
# Add default JVM options here. You can also use JAVA_OPTS and GRADLE_OPTS to pass JVM options to this script.
DEFAULT_JVM_OPTS='"-Xmx64m" "-Xms64m"'
# Collect all arguments for the java command:
# * DEFAULT_JVM_OPTS, JAVA_OPTS, JAVA_OPTS, and optsEnvironmentVar are not allowed to contain shell fragments,
# and any embedded shellness will be escaped.
# * For example: A user cannot expect ${Hostname} to be expanded, as it is an environment variable and will be
# treated as '${Hostname}' itself on the command line.
set -- \
"-Dorg.gradle.appname=$APP_BASE_NAME" \
-classpath "$CLASSPATH" \
org.gradle.wrapper.GradleWrapperMain \
"$@"
# Stop when "xargs" is not available.
if ! command -v xargs >/dev/null 2>&1
then
die "xargs is not available"
fi
# Use "xargs" to parse quoted args.
#
# With -n1 it outputs one arg per line, with the quotes and backslashes removed.
#
# In Bash we could simply go:
#
# readarray ARGS < <( xargs -n1 <<<"$var" ) &&
# set -- "${ARGS[@]}" "$@"
#
# but POSIX shell has neither arrays nor command substitution, so instead we
# post-process each arg (as a line of input to sed) to backslash-escape any
# character that might be a shell metacharacter, then use eval to reverse
# that process (while maintaining the separation between arguments), and wrap
# the whole thing up as a single "set" statement.
#
# This will of course break if any of these variables contains a newline or
# an unmatched quote.
#
eval "set -- $(
printf '%s\n' "$DEFAULT_JVM_OPTS $JAVA_OPTS $GRADLE_OPTS" |
xargs -n1 |
sed ' s~[^-[:alnum:]+,./:=@_]~\\&~g; ' |
tr '\n' ' '
)" '"$@"'
exec "$JAVACMD" "$@"

View File

@ -1,92 +0,0 @@
@rem
@rem Copyright 2015 the original author or authors.
@rem
@rem Licensed under the Apache License, Version 2.0 (the "License");
@rem you may not use this file except in compliance with the License.
@rem You may obtain a copy of the License at
@rem
@rem https://www.apache.org/licenses/LICENSE-2.0
@rem
@rem Unless required by applicable law or agreed to in writing, software
@rem distributed under the License is distributed on an "AS IS" BASIS,
@rem WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
@rem See the License for the specific language governing permissions and
@rem limitations under the License.
@rem
@if "%DEBUG%"=="" @echo off
@rem ##########################################################################
@rem
@rem Gradle startup script for Windows
@rem
@rem ##########################################################################
@rem Set local scope for the variables with windows NT shell
if "%OS%"=="Windows_NT" setlocal
set DIRNAME=%~dp0
if "%DIRNAME%"=="" set DIRNAME=.
@rem This is normally unused
set APP_BASE_NAME=%~n0
set APP_HOME=%DIRNAME%
@rem Resolve any "." and ".." in APP_HOME to make it shorter.
for %%i in ("%APP_HOME%") do set APP_HOME=%%~fi
@rem Add default JVM options here. You can also use JAVA_OPTS and GRADLE_OPTS to pass JVM options to this script.
set DEFAULT_JVM_OPTS="-Xmx64m" "-Xms64m"
@rem Find java.exe
if defined JAVA_HOME goto findJavaFromJavaHome
set JAVA_EXE=java.exe
%JAVA_EXE% -version >NUL 2>&1
if %ERRORLEVEL% equ 0 goto execute
echo.
echo ERROR: JAVA_HOME is not set and no 'java' command could be found in your PATH.
echo.
echo Please set the JAVA_HOME variable in your environment to match the
echo location of your Java installation.
goto fail
:findJavaFromJavaHome
set JAVA_HOME=%JAVA_HOME:"=%
set JAVA_EXE=%JAVA_HOME%/bin/java.exe
if exist "%JAVA_EXE%" goto execute
echo.
echo ERROR: JAVA_HOME is set to an invalid directory: %JAVA_HOME%
echo.
echo Please set the JAVA_HOME variable in your environment to match the
echo location of your Java installation.
goto fail
:execute
@rem Setup the command line
set CLASSPATH=%APP_HOME%\gradle\wrapper\gradle-wrapper.jar
@rem Execute Gradle
"%JAVA_EXE%" %DEFAULT_JVM_OPTS% %JAVA_OPTS% %GRADLE_OPTS% "-Dorg.gradle.appname=%APP_BASE_NAME%" -classpath "%CLASSPATH%" org.gradle.wrapper.GradleWrapperMain %*
:end
@rem End local scope for the variables with windows NT shell
if %ERRORLEVEL% equ 0 goto mainEnd
:fail
rem Set variable GRADLE_EXIT_CONSOLE if you need the _script_ return code instead of
rem the _cmd.exe /c_ return code!
set EXIT_CODE=%ERRORLEVEL%
if %EXIT_CODE% equ 0 set EXIT_CODE=1
if not ""=="%GRADLE_EXIT_CONSOLE%" exit %EXIT_CODE%
exit /b %EXIT_CODE%
:mainEnd
if "%OS%"=="Windows_NT" endlocal
:omega

View File

@ -1 +0,0 @@
rootProject.name = 'exercise-app'

View File

@ -1,13 +0,0 @@
package com.services.exerciseapp;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
@SpringBootApplication
public class ExerciseAppApplication {
public static void main(String[] args) {
SpringApplication.run(ExerciseAppApplication.class, args);
}
}

View File

@ -1,49 +0,0 @@
package com.services.exerciseapp.controller;
import com.services.exerciseapp.model.Exercise;
import com.services.exerciseapp.modelDto.ExerciseDto;
import com.services.exerciseapp.service.ExerciseService;
import lombok.RequiredArgsConstructor;
import org.springframework.web.bind.annotation.*;
import java.util.List;
@RestController
@RequestMapping("/exercise")
public class ExerciseController {
private final ExerciseService exerciseService;
public ExerciseController(ExerciseService exerciseService) {
this.exerciseService = exerciseService;
}
@GetMapping("/")
public List<Exercise> getExercises(){
return exerciseService.findAllExercise();
}
@GetMapping("/{id}")
public Exercise getExercise(@PathVariable int id){
return exerciseService.findById(id);
}
@GetMapping("/training/{id}")
public List<Exercise> getTrainingExercises(@PathVariable int id){
return exerciseService.findTrainingExercises(id);
}
@PostMapping("/")
public Exercise createExercise(@RequestBody ExerciseDto exerciseDto){
return exerciseService.addExercise(exerciseDto);
}
@PutMapping("/")
public Exercise updateExercise(@RequestBody ExerciseDto exerciseDto){
return exerciseService.updateExercise(exerciseDto);
}
@DeleteMapping("/{id}")
public void deleteExercise(@PathVariable int id){
exerciseService.deleteExercise(id);
}
}

View File

@ -1,50 +0,0 @@
package com.services.exerciseapp.model;
import jakarta.persistence.*;
import lombok.Data;
import lombok.experimental.Accessors;
@Entity
@Table(name = "t_exercise")
@Data
@Accessors(chain = true)
public class Exercise {
@Id
@GeneratedValue(strategy = GenerationType.IDENTITY)
private Integer id;
private String name;
private String description;
private Integer id_training;
public Integer getId() {
return id;
}
public void setId(Integer id) {
this.id = id;
}
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public String getDescription() {
return description;
}
public void setDescription(String description) {
this.description = description;
}
public Integer getId_training() {
return id_training;
}
public void setId_training(Integer id_training) {
this.id_training = id_training;
}
}

View File

@ -1,43 +0,0 @@
package com.services.exerciseapp.modelDto;
import jakarta.annotation.Nullable;
public class ExerciseDto {
private int id;
private String name;
private String description;
@Nullable
private Integer id_training;
public int getId() {
return id;
}
public void setId(int id) {
this.id = id;
}
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public String getDescription() {
return description;
}
public void setDescription(String description) {
this.description = description;
}
public Integer getId_training() {
return id_training;
}
public void setId_training(Integer id_training) {
this.id_training = id_training;
}
}

View File

@ -1,7 +0,0 @@
package com.services.exerciseapp.repository;
import com.services.exerciseapp.model.Exercise;
import org.springframework.data.jpa.repository.JpaRepository;
public interface ExerciseRepository extends JpaRepository<Exercise, Integer> {
}

View File

@ -1,57 +0,0 @@
package com.services.exerciseapp.service;
import com.services.exerciseapp.model.Exercise;
import com.services.exerciseapp.modelDto.ExerciseDto;
import com.services.exerciseapp.repository.ExerciseRepository;
import lombok.RequiredArgsConstructor;
import org.springframework.stereotype.Service;
import java.util.List;
@Service
public class ExerciseService {
private final ExerciseRepository exerciseRepository;
public ExerciseService(ExerciseRepository exerciseRepository) {
this.exerciseRepository = exerciseRepository;
}
public List<Exercise> findAllExercise(){
return exerciseRepository.findAll();
}
public Exercise findById(int id){
return exerciseRepository.findById(id).orElseThrow();
}
public List<Exercise> findTrainingExercises(int training_id){
return exerciseRepository.findAll().stream()
.filter(exercise -> exercise.getId_training() != null)
.filter(exercise -> exercise.getId_training() == training_id)
.toList();
}
public Exercise addExercise(ExerciseDto exerciseDto) {
Exercise exercise = new Exercise();
exercise.setName(exerciseDto.getName());
exercise.setDescription(exerciseDto.getDescription());
if (exerciseDto.getId_training() != null) {
exercise.setId_training(exerciseDto.getId_training());
}
return exerciseRepository.save(exercise);
}
public Exercise updateExercise(ExerciseDto exerciseDto){
Exercise exercise = exerciseRepository.findById(exerciseDto.getId()).orElseThrow();
exercise.setName(exerciseDto.getName());
exercise.setDescription(exerciseDto.getDescription());
if (exerciseDto.getId_training() != null) {
exercise.setId_training(exerciseDto.getId_training());
}
return exerciseRepository.save(exercise);
}
public void deleteExercise(int id){
exerciseRepository.delete(exerciseRepository.findById(id).orElseThrow());
}
}

View File

@ -1,7 +0,0 @@
server:
port: "8081"
spring:
datasource:
url: ${DATASOURCE_URL:jdbc:postgresql://localhost:5432/traininarium}
username: ${DATASOURCE_USERNAME:admin}
password: ${DATASOURCE_PASSWORD:admin}

View File

@ -1,13 +0,0 @@
package com.services.exerciseapp;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;
@SpringBootTest
class ExerciseAppApplicationTests {
@Test
void contextLoads() {
}
}

Some files were not shown because too many files have changed in this diff Show More