Compare commits

..

1 Commits

Author SHA1 Message Date
4c76a9dea6 minhasapov_ruslan_lab_1 is ready 2024-09-21 22:14:08 +04:00
28 changed files with 109 additions and 1177 deletions

View File

@@ -1 +0,0 @@
var/

View File

@@ -1,60 +0,0 @@
# Кашин Максим ПИбд-42
## Описание
Этот проект состоит из трех отдельных программ, каждая из которых находится в своей папке (`program_0`, `program_1`, `program_2`). Каждая программа запускается в отдельном Docker-контейнере и взаимодействует с другими через общие директории, примонтированные как тома (volumes). Для управления контейнерами используется `docker-compose`.
### Основная структура:
- **program_0**: выполняет подготовку для выполнение задач (генерация файлов) и сохраняет результат в директорию `./var/data`.
- **program_1**: использует данные из `./var/data`, генерируемые `program_0`, обрабатывает их и сохраняет результат в `./var/result`.
- **program_2**: берет результаты из `./var/result`, созданные `program_1`, и выполняет заключительную часть обработки и сохраняет результат в `./var/result`.
### Шаги для запуска
1. **Запуск всех сервисов:**
Для запуска всех программ с помощью Docker Compose, выполните следующую команду:
```bash
docker-compose up --build
```
Это создаст и запустит все три программы в последовательности.
2. **Работа с томами:**
Проект использует два общих тома для обмена данными между программами:
- `/var/data`: программа `program_0` сохраняет туда свои данные, которые потом читает `program_1`.
- `/var/result`: программа `program_1` сохраняет результаты обработки, которые затем используются в `program_2`.
3. **Остановка сервисов:**
Для остановки всех контейнеров выполните команду:
```bash
docker-compose down
```
## Структура проекта
- **program_0/**:
- `main.py`: основной код для первой программы (генерация файлов).
- `Dockerfile`: инструкция по созданию Docker-образа для `program_0`.
- **program_1/**:
- `main.py`: основной код для второй программы (Скрипт на задание 1.3 - Формирует файл /var/result/data.txt так, что каждая строка файла - количество строк в файлах из каталога /var/data.)
- `Dockerfile`: инструкция по созданию Docker-образа для `program_1`.
- **program_2/**:
- `main.py`: основной код для третьей программы (Скрипт на задание 2.1 - Ищет набольшее число из файла /var/result/data.txt и сохраняет его вторую степень в /var/result/result.txt.)
- `Dockerfile`: инструкция по созданию Docker-образа для `program_2`.
- **docker-compose.yml**: конфигурация для Docker Compose, описывающая, как собирать и запускать все контейнеры, а также тома, которые они используют.
- **.gitignore**: файл для исключения директории `var/` (временных данных и результатов).
### Видео-отчёт
- [Видео отчёт Кашин Максим ПИбд-42](https://disk.yandex.ru/i/NGZD2HkmZkIBww)

View File

@@ -1,24 +0,0 @@
services:
program_0:
build:
context: ./program_0 # Контекст сборки для контейнера program_0, указывающий на папку с Dockerfile
volumes:
- ./var/data:/data # Монтирование локальной директории ./var/data в контейнер по пути /data
program_1:
build:
context: ./program_1 # Контекст сборки для контейнера program_1, указывающий на папку с Dockerfile
volumes:
- ./var/data:/data # Монтирование локальной директории ./var/data в контейнер по пути /data
- ./var/result:/result # Монтирование локальной директории ./var/result в контейнер по пути /result
depends_on:
- program_0 # Зависимость от program_0; program_1 не будет запущен до завершения program_0
program_2:
build:
context: ./program_2 # Контекст сборки для контейнера program_2, указывающий на папку с Dockerfile
volumes:
- ./var/result:/result # Монтирование локальной директории ./var/result в контейнер по пути /result
depends_on:
- program_1 # Зависимость от program_1; program_2 не будет запущен до завершения program_1

View File

@@ -1,11 +0,0 @@
# Используем базовый образ Python версии 3.12 с минимальным размером
FROM python:3.12-slim
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /program_0
# Копируем файл main.py из локальной файловой системы в рабочую директорию контейнера
COPY main.py /program_0/
# Определяем команду, которая будет выполняться при запуске контейнера
CMD ["python", "main.py"]

View File

@@ -1,53 +0,0 @@
import random
import os
# Путь к папке, где будут создаваться файлы
folder_path = '/data'
# Функция для создания папки, если она не существует
def creat_folder():
if not os.path.exists(folder_path):
os.makedirs(folder_path)
print(f"Папка `{folder_path}` создана!")
else:
print(f"Папка `{folder_path}` уже существует!")
# Функция для удаления всех файлов в папке
def delete_files_in_folder():
for filename in os.listdir(folder_path):
file_path = os.path.join(folder_path, filename)
try:
if os.path.isfile(file_path):
os.remove(file_path)
print(f"Файл `{file_path}` удален.")
except Exception as e:
print(f'Ошибка при удалении файла {file_path}. {e}')
# Функция для создания файлов с случайными данными
def creat_file():
# Создаем случайное количество файлов (от 10 до 20)
for i in range(random.randrange(10, 20)):
file = open(f'{folder_path}/file_{i}.txt', 'w+')
print(f"Создан файл: {folder_path}/file_{i}.txt")
# Заполняем файл случайным количеством строк (от 10 до 50)
for i in range(random.randrange(10, 50)):
file.write(f'{create_lines()} \n') # Записываем строку данных в файл
file.close()
# Функция для создания случайных числовых строк
def create_lines():
# Создаем список случайных чисел
lines = [i for i in range(random.randrange(1, 50), random.randrange(50, 100), random.randrange(1, 10))]
return lines
# Основная логика: проверка существования папки и выполнение операций
if os.path.exists(folder_path):
print(f"Папка `{folder_path}` существует, удаляем старые файлы...")
delete_files_in_folder()
creat_file()
else:
print(f"Папка `{folder_path}` не существует, создаем...")
creat_folder()
creat_file()
print("Скрипт на создание файлов выполнен.")

View File

@@ -1,11 +0,0 @@
# Используем базовый образ Python версии 3.12 с минимальным размером
FROM python:3.12-slim
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /program_1
# Копируем файл main.py из локальной файловой системы в рабочую директорию контейнера
COPY main.py /program_1/
# Определяем команду, которая будет выполняться при запуске контейнера
CMD ["python", "main.py"]

View File

@@ -1,58 +0,0 @@
from pathlib import Path
import os
# Путь к папке, где будут создаваться файлы
folder_path = '/result'
# Путь к папке, где созданы файлы
folder_generator = '/data'
# Функция для создания папки, если она не существует
def creat_folder():
if not os.path.exists(folder_path):
os.makedirs(folder_path)
print(f"Папка `{folder_path}` создана!")
else:
print(f"Папка `{folder_path}` уже существует!")
# Функция для удаления всех файлов в папке
def delete_files_in_folder():
for filename in os.listdir(folder_path):
file_path = os.path.join(folder_path, filename)
try:
if os.path.isfile(file_path):
os.remove(file_path)
print(f"Файл `{file_path}` удален.")
except Exception as e:
print(f'Ошибка при удалении файла {file_path}. {e}')
# Функция для создания файлов
def creat_file():
file = open(f'{folder_path}/data.txt', 'w+')
print(f"Создан файл: {folder_path}/data.txt")
for count in files_count():
file.write(f'{count} \n')
file.close()
# Функция для подсчета количества строк в файлах
def files_count():
files = []
files_count = []
files += os.listdir(folder_generator)
for file in files:
line_count = sum(1 for line in open(folder_generator + '/' + file))
files_count.append(line_count)
print(f"Файл {file} имеет {line_count} количество строк")
return files_count
# Основная логика: проверка существования папки и выполнение операций
if os.path.exists(folder_path):
print(f"Папка `{folder_path}` существует, удаляем старые файлы...")
delete_files_in_folder()
creat_file()
else:
print(f"Папка `{folder_path}` не существует, создаем...")
creat_folder()
creat_file()
print("Скрипт на задание 1.3 (Формирует файл /var/result/data.txt так, что каждая строка файла - количество строк в файлах из каталога /var/data.) выполнен.")

View File

@@ -1,11 +0,0 @@
# Используем базовый образ Python версии 3.12 с минимальным размером
FROM python:3.12-slim
# Устанавливаем рабочую директорию внутри контейнера
WORKDIR /program_2
# Копируем файл main.py из локальной файловой системы в рабочую директорию контейнера
COPY main.py /program_2/
# Определяем команду, которая будет выполняться при запуске контейнера
CMD ["python", "main.py"]

View File

@@ -1,53 +0,0 @@
from pathlib import Path
import os
# Путь к папке, где будут создаваться файлы
folder_path = '/result'
# Функция для создания папки, если она не существует
def creat_folder():
if not os.path.exists(folder_path):
os.makedirs(folder_path)
print(f"Папка `{folder_path}` создана!")
else:
print(f"Папка `{folder_path}` уже существует!")
# Функция для удаления всех файлов в папке
def delete_files_in_folder():
for filename in 'result.txt':
file_path = os.path.join(folder_path, filename)
try:
if os.path.isfile(file_path):
os.remove(file_path)
print(f"Файл `{file_path}` удален.")
except Exception as e:
print(f'Ошибка при удалении файла {file_path}. {e}')
# Функция для создания файлов
def creat_file():
file = open(f'{folder_path}/result.txt', 'w+')
print(f"Создан файл: {folder_path}/result.txt")
file.write(f'{max_nubmer_file()**2}')
print(f"Максимальное число: {max_nubmer_file()}")
print(f"Максимальное число в степени 2: {max_nubmer_file()**2}")
file.close()
# Функция для посчёта максимального числа в файле
def max_nubmer_file():
max_number = 0
for line in open(f'{folder_path}/data.txt'):
if int(line) > max_number:
max_number = int(line)
return max_number
# Основная логика: проверка существования папки и выполнение операций
if os.path.exists(folder_path):
print(f"Папка `{folder_path}` существует, удаляем старые файлы...")
delete_files_in_folder()
creat_file()
else:
print(f"Папка `{folder_path}` не существует, создаем...")
creat_folder()
creat_file()
print("Скрипт на задание 2.1 (Ищет набольшее число из файла /var/result/data.txt и сохраняет его вторую степень в /var/result/result.txt.) выполнен.")

View File

@@ -1,30 +0,0 @@
**/.classpath
**/.dockerignore
**/.env
**/.git
**/.gitignore
**/.project
**/.settings
**/.toolstarget
**/.vs
**/.vscode
**/*.*proj.user
**/*.dbmdl
**/*.jfm
**/azds.yaml
**/bin
**/charts
**/docker-compose*
**/Dockerfile*
**/node_modules
**/npm-debug.log
**/obj
**/secrets.dev.yaml
**/values.dev.yaml
LICENSE
README.md
!**/.gitignore
!.git/HEAD
!.git/config
!.git/packed-refs
!.git/refs/heads/**

View File

@@ -1,490 +0,0 @@
## Ignore Visual Studio temporary files, build results, and
## files generated by popular Visual Studio add-ons.
##
## Get latest from `dotnet new gitignore`
# dotenv files
.env
# User-specific files
*.rsuser
*.suo
*.user
*.userosscache
*.sln.docstates
# User-specific files (MonoDevelop/Xamarin Studio)
*.userprefs
# Mono auto generated files
mono_crash.*
# Build results
[Dd]ebug/
[Dd]ebugPublic/
[Rr]elease/
[Rr]eleases/
x64/
x86/
[Ww][Ii][Nn]32/
[Aa][Rr][Mm]/
[Aa][Rr][Mm]64/
bld/
[Bb]in/
[Oo]bj/
[Ll]og/
[Ll]ogs/
# Visual Studio 2015/2017 cache/options directory
.vs/
# Uncomment if you have tasks that create the project's static files in wwwroot
#wwwroot/
# Visual Studio 2017 auto generated files
Generated\ Files/
# MSTest test Results
[Tt]est[Rr]esult*/
[Bb]uild[Ll]og.*
# NUnit
*.VisualState.xml
TestResult.xml
nunit-*.xml
# Build Results of an ATL Project
[Dd]ebugPS/
[Rr]eleasePS/
dlldata.c
# Benchmark Results
BenchmarkDotNet.Artifacts/
# .NET
project.lock.json
project.fragment.lock.json
artifacts/
# Tye
.tye/
# ASP.NET Scaffolding
ScaffoldingReadMe.txt
# StyleCop
StyleCopReport.xml
# Files built by Visual Studio
*_i.c
*_p.c
*_h.h
*.ilk
*.meta
*.obj
*.iobj
*.pch
*.pdb
*.ipdb
*.pgc
*.pgd
*.rsp
*.sbr
*.tlb
*.tli
*.tlh
*.tmp
*.tmp_proj
*_wpftmp.csproj
*.log
*.tlog
*.vspscc
*.vssscc
.builds
*.pidb
*.svclog
*.scc
# Chutzpah Test files
_Chutzpah*
# Visual C++ cache files
ipch/
*.aps
*.ncb
*.opendb
*.opensdf
*.sdf
*.cachefile
*.VC.db
*.VC.VC.opendb
# Visual Studio profiler
*.psess
*.vsp
*.vspx
*.sap
# Visual Studio Trace Files
*.e2e
# TFS 2012 Local Workspace
$tf/
# Guidance Automation Toolkit
*.gpState
# ReSharper is a .NET coding add-in
_ReSharper*/
*.[Rr]e[Ss]harper
*.DotSettings.user
# TeamCity is a build add-in
_TeamCity*
# DotCover is a Code Coverage Tool
*.dotCover
# AxoCover is a Code Coverage Tool
.axoCover/*
!.axoCover/settings.json
# Coverlet is a free, cross platform Code Coverage Tool
coverage*.json
coverage*.xml
coverage*.info
# Visual Studio code coverage results
*.coverage
*.coveragexml
# NCrunch
_NCrunch_*
.*crunch*.local.xml
nCrunchTemp_*
# MightyMoose
*.mm.*
AutoTest.Net/
# Web workbench (sass)
.sass-cache/
# Installshield output folder
[Ee]xpress/
# DocProject is a documentation generator add-in
DocProject/buildhelp/
DocProject/Help/*.HxT
DocProject/Help/*.HxC
DocProject/Help/*.hhc
DocProject/Help/*.hhk
DocProject/Help/*.hhp
DocProject/Help/Html2
DocProject/Help/html
# Click-Once directory
publish/
# Publish Web Output
*.[Pp]ublish.xml
*.azurePubxml
# Note: Comment the next line if you want to checkin your web deploy settings,
# but database connection strings (with potential passwords) will be unencrypted
*.pubxml
*.publishproj
# Microsoft Azure Web App publish settings. Comment the next line if you want to
# checkin your Azure Web App publish settings, but sensitive information contained
# in these scripts will be unencrypted
PublishScripts/
# NuGet Packages
*.nupkg
# NuGet Symbol Packages
*.snupkg
# The packages folder can be ignored because of Package Restore
**/[Pp]ackages/*
# except build/, which is used as an MSBuild target.
!**/[Pp]ackages/build/
# Uncomment if necessary however generally it will be regenerated when needed
#!**/[Pp]ackages/repositories.config
# NuGet v3's project.json files produces more ignorable files
*.nuget.props
*.nuget.targets
# Microsoft Azure Build Output
csx/
*.build.csdef
# Microsoft Azure Emulator
ecf/
rcf/
# Windows Store app package directories and files
AppPackages/
BundleArtifacts/
Package.StoreAssociation.xml
_pkginfo.txt
*.appx
*.appxbundle
*.appxupload
# Visual Studio cache files
# files ending in .cache can be ignored
*.[Cc]ache
# but keep track of directories ending in .cache
!?*.[Cc]ache/
# Others
ClientBin/
~$*
*~
*.dbmdl
*.dbproj.schemaview
*.jfm
*.pfx
*.publishsettings
orleans.codegen.cs
# Including strong name files can present a security risk
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
#*.snk
# Since there are multiple workflows, uncomment next line to ignore bower_components
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
#bower_components/
# RIA/Silverlight projects
Generated_Code/
# Backup & report files from converting an old project file
# to a newer Visual Studio version. Backup files are not needed,
# because we have git ;-)
_UpgradeReport_Files/
Backup*/
UpgradeLog*.XML
UpgradeLog*.htm
ServiceFabricBackup/
*.rptproj.bak
# SQL Server files
*.mdf
*.ldf
*.ndf
# Business Intelligence projects
*.rdl.data
*.bim.layout
*.bim_*.settings
*.rptproj.rsuser
*- [Bb]ackup.rdl
*- [Bb]ackup ([0-9]).rdl
*- [Bb]ackup ([0-9][0-9]).rdl
# Microsoft Fakes
FakesAssemblies/
# GhostDoc plugin setting file
*.GhostDoc.xml
# Node.js Tools for Visual Studio
.ntvs_analysis.dat
node_modules/
# Visual Studio 6 build log
*.plg
# Visual Studio 6 workspace options file
*.opt
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
*.vbw
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
*.vbp
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
*.dsw
*.dsp
# Visual Studio 6 technical files
*.ncb
*.aps
# Visual Studio LightSwitch build output
**/*.HTMLClient/GeneratedArtifacts
**/*.DesktopClient/GeneratedArtifacts
**/*.DesktopClient/ModelManifest.xml
**/*.Server/GeneratedArtifacts
**/*.Server/ModelManifest.xml
_Pvt_Extensions
# Paket dependency manager
.paket/paket.exe
paket-files/
# FAKE - F# Make
.fake/
# CodeRush personal settings
.cr/personal
# Python Tools for Visual Studio (PTVS)
__pycache__/
*.pyc
# Cake - Uncomment if you are using it
# tools/**
# !tools/packages.config
# Tabs Studio
*.tss
# Telerik's JustMock configuration file
*.jmconfig
# BizTalk build output
*.btp.cs
*.btm.cs
*.odx.cs
*.xsd.cs
# OpenCover UI analysis results
OpenCover/
# Azure Stream Analytics local run output
ASALocalRun/
# MSBuild Binary and Structured Log
*.binlog
# NVidia Nsight GPU debugger configuration file
*.nvuser
# MFractors (Xamarin productivity tool) working folder
.mfractor/
# Local History for Visual Studio
.localhistory/
# Visual Studio History (VSHistory) files
.vshistory/
# BeatPulse healthcheck temp database
healthchecksdb
# Backup folder for Package Reference Convert tool in Visual Studio 2017
MigrationBackup/
# Ionide (cross platform F# VS Code tools) working folder
.ionide/
# Fody - auto-generated XML schema
FodyWeavers.xsd
# VS Code files for those working on multiple tools
.vscode/*
!.vscode/settings.json
!.vscode/tasks.json
!.vscode/launch.json
!.vscode/extensions.json
*.code-workspace
# Local History for Visual Studio Code
.history/
# Windows Installer files from build outputs
*.cab
*.msi
*.msix
*.msm
*.msp
# JetBrains Rider
*.sln.iml
.idea
##
## Visual studio for Mac
##
# globs
Makefile.in
*.userprefs
*.usertasks
config.make
config.status
aclocal.m4
install-sh
autom4te.cache/
*.tar.gz
tarballs/
test-results/
# Mac bundle stuff
*.dmg
*.app
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
# General
.DS_Store
.AppleDouble
.LSOverride
# Icon must end with two \r
Icon
# Thumbnails
._*
# Files that might appear in the root of a volume
.DocumentRevisions-V100
.fseventsd
.Spotlight-V100
.TemporaryItems
.Trashes
.VolumeIcon.icns
.com.apple.timemachine.donotpresent
# Directories potentially created on remote AFP share
.AppleDB
.AppleDesktop
Network Trash Folder
Temporary Items
.apdisk
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
# Windows thumbnail cache files
Thumbs.db
ehthumbs.db
ehthumbs_vista.db
# Dump file
*.stackdump
# Folder config file
[Dd]esktop.ini
# Recycle Bin used on file shares
$RECYCLE.BIN/
# Windows Installer files
*.cab
*.msi
*.msix
*.msm
*.msp
# Windows shortcuts
*.lnk
# Vim temporary swap files
*.swp
# Delete volumes
/volumes
# Delete .vs folder
/.vs/*

View File

@@ -1,37 +0,0 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.10.34916.146
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "DAaS_FileConnections", "DAaS_FileConnections\DAaS_FileConnections.csproj", "{23B07B06-0AB4-42F8-9753-264639E1D38B}"
EndProject
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "FirstApplication", "FirstApplication\FirstApplication.csproj", "{FBC01B2E-C887-42D1-A899-3C4781EF67E9}"
EndProject
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "SecondApplication", "SecondApplication\SecondApplication.csproj", "{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Debug|Any CPU.Build.0 = Debug|Any CPU
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Release|Any CPU.ActiveCfg = Release|Any CPU
{23B07B06-0AB4-42F8-9753-264639E1D38B}.Release|Any CPU.Build.0 = Release|Any CPU
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Debug|Any CPU.Build.0 = Debug|Any CPU
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Release|Any CPU.ActiveCfg = Release|Any CPU
{FBC01B2E-C887-42D1-A899-3C4781EF67E9}.Release|Any CPU.Build.0 = Release|Any CPU
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Debug|Any CPU.Build.0 = Debug|Any CPU
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Release|Any CPU.ActiveCfg = Release|Any CPU
{5888DB56-82F2-467D-8F6B-AB94CC4A33B5}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ExtensibilityGlobals) = postSolution
SolutionGuid = {E290B7D1-0F4E-406E-ADF3-8F543C0FA96E}
EndGlobalSection
EndGlobal

View File

@@ -1,14 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="PIHelperSh.RandomEx" Version="1.0.0" />
</ItemGroup>
</Project>

View File

@@ -1,29 +0,0 @@

using PIHelperSh.RandomEx.Extentions;
string inputPath = Environment.GetEnvironmentVariable("INPUT_PATH") ?? ".\\input1";
string outputPath = Environment.GetEnvironmentVariable("OUTPUT_PATH") ?? ".\\output1";
if(!Directory.Exists(inputPath))
Directory.CreateDirectory(inputPath);
if(!Directory.Exists(outputPath))
Directory.CreateDirectory(outputPath);
var rnd = new Random();
for (int i = 0; i < rnd.Next(1000); i++)
{
using var writer = new StreamWriter(Path.Combine(inputPath, $"{rnd.NextString(10)}.txt"), false);
for (int j = 0; j < rnd.Next(1000); j++)
{
writer.WriteLine(rnd.Next());
}
writer.Close();
}

View File

@@ -1,35 +0,0 @@
# Это базовый образ для сборки.
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
# Указываем рабочий каталог для следующих комманд
WORKDIR /app
# Проект нужно сначала собрать, поэтому берём sdk
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
# Это пременная. Будем собирать в режиме Relece.
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
# Копируем из папки хоста в контейнер
COPY ["FirstApplication.csproj", "FirstApplication/"]
# Выполняем комманду для загрузки всех нужных зависимостей
RUN dotnet restore "FirstApplication/FirstApplication.csproj"
# Назначаем новую базовую папку
WORKDIR "/src/FirstApplication"
# Копируем всё в папку для сборки
COPY . .
# Выполняем сборку проекта
RUN dotnet build "FirstApplication.csproj" -c $BUILD_CONFIGURATION -o /app/build
# В этот этап попадает всё, что было в publish
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
# Публикуем всё в папку /app/publish
RUN dotnet publish "FirstApplication.csproj" -c $BUILD_CONFIGURATION -o /app/publish --self-contained false --no-restore
# Берём тот образ, что определили в первой строке
FROM base AS final
# Указываем рабочую директорию
WORKDIR /app
# Из опубликованного блока берём то, что опубликовано и закидывае в /app
COPY --from=publish /app/publish .
# Указываем комманду запуска приложения (когда контейнер запустится, то начнёт с этого)
ENTRYPOINT ["dotnet", "FirstApplication.dll"]

View File

@@ -1,15 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
</ItemGroup>
</Project>

View File

@@ -1,17 +0,0 @@
Console.WriteLine("Запущен первый сервис");
string inputPath = Environment.GetEnvironmentVariable("INPUT_PATH") ?? "./input1";
string outputPath = Environment.GetEnvironmentVariable("OUTPUT_PATH") ?? "./output1";
if (!Directory.Exists(inputPath))
Directory.CreateDirectory(inputPath);
if (!Directory.Exists(outputPath))
Directory.CreateDirectory(outputPath);
var file = new DirectoryInfo(inputPath).EnumerateFiles().Aggregate((x, y) => x.Length > y.Length ? x : y);
var outputFilePath = Path.Combine(outputPath, "data.txt");
if(File.Exists(outputFilePath))
File.Delete(outputFilePath);
File.Move(file.FullName, Path.Combine(outputPath, "data.txt"));

View File

@@ -1,10 +0,0 @@
{
"profiles": {
"FirstApplication": {
"commandName": "Project"
},
"Container (Dockerfile)": {
"commandName": "Docker"
}
}
}

View File

@@ -1,25 +0,0 @@
# Лабораторная работа 2
Данная работа посвящена теме создания контейнеров из исходного кода посредства dockerfile, а так же взаимодействию сервисов через общие папки
## Описание
Был варана следующая комбинация вариантов:
- Первое приложение - 0-ой
- Второе приложение - 1-ый
В результате, после запуска система изучит папку ./volumes/input, найдёт самый большой файл, а затем найдёт в нём самое большое число, выведя в директорию ./volumes/output файл с его квадратом.
Буфер же, по сути не имеет физического отображения на папку хоста.
## Запуск
Для запуска лабораторной работы необходимо иметь запущенный движок Docker на устройстве.
Необходимо перейти в папку, где располагается данный файл. Далее открыть терминал и ввести команду:
```
docker compose up --build
```
В данном случае флаг `--build` заставит систему в любом случае собрать образы из исходников (даже если они уже есть).
В результате, после сборки оба сервиса запустятся и выведут в консоль логи примерно следующего содержания:
## Описание dockerfile файла
Подробное описание дано в виде комментариев в самом файле первого сервиса. Так как для разработки использовался .net 8.0, команд довольно много. При этом, так как второй сервис написан на той же платформе, особенных отличий двух docekrfile-ов нет(кроме пути
## Описание compose файла
Благодаря директиве `depends_on` в compose файле второй сервис будет ждать, пока не будет поднят первый сервис, и только потом начнёт подниматься.
Директива `build` позволяет использовать в compose не уже готовый образ, а тот, что будет собран непосредственно в момент запуска(если он уже существует и нет флага силовой сборки, будет использоваться существующий образ)
Область volumes позволяет создать буферную область. Эту папку можно монтировать как результирующую для первого сервиса и исходную - для второго
## Видеодемонстрация
Был записан видеоролик, демонстрирующий процесс запуска и работы сервисов. Он расположен по [адресу](https://drive.google.com/file/d/1sACiKx3_HRApa89a7LZFAZV05o7POhq6/view?usp=sharing)

View File

@@ -1,20 +0,0 @@
FROM mcr.microsoft.com/dotnet/runtime:8.0 AS base
WORKDIR /app
FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
ARG BUILD_CONFIGURATION=Release
WORKDIR /src
COPY ["SecondApplication.csproj", "SecondApplication/"]
RUN dotnet restore "./SecondApplication/SecondApplication.csproj"
WORKDIR "/src/SecondApplication"
COPY . .
RUN dotnet build "SecondApplication.csproj" -c $BUILD_CONFIGURATION -o /app/build
FROM build AS publish
ARG BUILD_CONFIGURATION=Release
RUN dotnet publish "SecondApplication.csproj" -c $BUILD_CONFIGURATION -o /app/publish /p:UseAppHost=false
FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .
ENTRYPOINT ["dotnet", "SecondApplication.dll"]

View File

@@ -1,31 +0,0 @@
Console.WriteLine("Запущен второй сервис");
string inputPath = Environment.GetEnvironmentVariable("INPUT_PATH") ?? ".\\input2";
string outputPath = Environment.GetEnvironmentVariable("OUTPUT_PATH") ?? ".\\output2";
if (!Directory.Exists(outputPath))
Directory.CreateDirectory(outputPath);
var inputFilePath = Path.Combine(inputPath, "data.txt");
var outputFilePath = Path.Combine(outputPath, "result.txt");
if (!File.Exists(inputFilePath))
{
Console.WriteLine($"Нет исходного файла {inputFilePath}");
return;
}
using var reader = new StreamReader(inputFilePath);
long maxNumber = 0;
while (true)
{
var str = reader.ReadLine();
if (str == null) break;
if (long.TryParse(str, out var number) && number > maxNumber)
maxNumber = number;
}
File.WriteAllText(outputFilePath, (maxNumber * maxNumber).ToString());
Console.WriteLine($"Результат выполнения: {maxNumber * maxNumber}");

View File

@@ -1,10 +0,0 @@
{
"profiles": {
"SecondApplication": {
"commandName": "Project"
},
"Container (Dockerfile)": {
"commandName": "Docker"
}
}
}

View File

@@ -1,15 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>Exe</OutputType>
<TargetFramework>net8.0</TargetFramework>
<ImplicitUsings>enable</ImplicitUsings>
<Nullable>enable</Nullable>
<DockerDefaultTargetOS>Linux</DockerDefaultTargetOS>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.VisualStudio.Azure.Containers.Tools.Targets" Version="1.20.1" />
</ItemGroup>
</Project>

View File

@@ -1,22 +0,0 @@
services:
first:
build: ./FirstApplication/
volumes:
- ./volumes/input:/var/data
- buffer:/var/result
environment:
INPUT_PATH: "/var/data"
OUTPUT_PATH: "/var/result"
second:
build: ./SecondApplication/
depends_on:
- first
volumes:
- buffer:/var/data
- ./volumes/output:/var/result
environment:
INPUT_PATH: "/var/data"
OUTPUT_PATH: "/var/result"
volumes:
buffer:

View File

@@ -0,0 +1,64 @@
## Лабораторная работа №1: Знакомство с docker и docker-compose
---
**Цель:** изучение современных технологий контейнеризации.
**Задачи:**
1. Установить средство контейнеризации docker.
2. Изучить применение и принципы docker.
3. Изучить утилиту docker-compose и структуру файла docker-compose.yml.
4. Развернуть не менее 3х различных сервисов при помощи docker-compose.
5. Оформить отчёт в формате Markdown и создать Pull Request в git-репозитории.
---
**Сервисы:**
* **Gitea:** Легковесная и самодостаточная система управления версиями кода с веб-интерфейсом.
* **Postgres:** Мощная система управления реляционными базами данных с открытым исходным кодом.
* **Redis:** Высокопроизводительное хранилище данных типа "ключ-значение", используемое для кэширования, сессий и других задач.
---
**Инструкция по запуску:**
1. **Установка Docker:** Необходимо убедиться, установлен ли Docker на системе, в ином случае установить его.
2. **Навигация:** Перейти в директорию с файлом `docker-compose.yml`.
3. **Запуск:** Необходимо выполнить следующую команду в терминале:
```bash
docker-compose up --build --remove-orphans
```
Данная команда создаст и запустит все необходимые контейнеры, описанные в `docker-compose.yml`.
**Проверка:**
Для проверки успешного запуска нужно выполнить команду:
```bash
docker ps -a
```
В случае успеха мы можем увидеть список запущенных контейнеров (gitea, postgres и redis):
```bash
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
6ea2e28126a8 gitea/gitea:1.22.2 "/usr/bin/entrypoint…" About a minute ago Up 9 seconds 0.0.0.0:3000->3000/tcp, 0.0.0.0:222->22/tcp minhasapov_ruslan_lab_1-gitea-1
2490f332bc90 postgres:14 "docker-entrypoint.s…" About a minute ago Up 9 seconds 0.0.0.0:5432->5432/tcp minhasapov_ruslan_lab_1-postgres-1
c5580d8fe1d7 redis:latest "docker-entrypoint.s…" About a minute ago Up 9 seconds 0.0.0.0:6379->6379/tcp minhasapov_ruslan_lab_1-redis-1
```
**Примечание:**
*Файл `docker-compose.yml` содержит подробную информацию о конфигурации каждого сервиса, включая порты, тома и переменные окружения.*
**Важно:**
После первого запуска **Gitea**, необходимо зайти на сервис *(по адресу `http://localhost:3000`)*, выполнить первоначальную настройку и создать суперпользователя.
---
**Видеодемонстрация работы:**
Видео доступно по <u>*[ссылке](https://disk.yandex.ru/i/6Efipp3Gxs9-Jw)*</u>
---

View File

@@ -0,0 +1,45 @@
services: # начало объявления сервисов, которые будут запущены
postgres: # указываем название сервиса
image: postgres:14 # указываем название и/или версии образа Docker для Postgres
restart: always # автоматический перезапуск контейнера, если он упал
ports:
- "5432:5432" # пробрасываем порт 5432 из контейнера на хост-машину
# (слева порт хостовой машины, справа порт контейнера)
volumes: # указываются монтированные тома, папки, файлы
- postgres_data:/var/lib/postgresql/data # монтирует том postgres_data к /var/lib/postgresql/data,
# чтобы данные Postgres сохранялись после перезапуска контейнера
environment: # задаем переменные окружения для Postgres, такие как:
POSTGRES_USER: postgres_user # имя пользователя
POSTGRES_PASSWORD: postgres_password # пароль пользователя
POSTGRES_DB: postgres_db # имя БД
gitea:
image: gitea/gitea:1.22.2
restart: always
ports:
- "3000:3000" # пробрасывает порты 3000 (HTTP, веб-интерфейс)
- "222:22" # и 22 (SSH) из контейнера на хост-машину
volumes:
- gitea_data:/data
environment:
GITEA__database__DB_TYPE: postgres
GITEA__database__HOST: postgres:5432 # хост бд, название сервиса выступает в роли доменного имени и внутри сети разрешается в ip нужного контейнера
GITEA__database__NAME: postgres_db
GITEA__database__USER: postgres_user
GITEA__database__PASSWD: postgres_password
depends_on: # указывается зависимость запуска контейнера от другого сервиса
- postgres # Gitea зависит от Postgres, поэтому Postgres будет запущен первым
- redis
redis:
image: redis:latest
restart: always
ports:
- "6379:6379"
volumes:
- redis_data:/data
volumes: # определяем тома, которые будут использоваться сервисами
postgres_data:
gitea_data:
redis_data:

View File

@@ -1,50 +0,0 @@
# Отчет по лабораторной работе 1
## Описание
Docker Compose используется для одновременного управления несколькими контейнерами, входящими в состав приложения. Он позволяет хранить все настройки проекта в одном контейнере, что позволяет потом беспроблемно использовать те же настройки проекта на другом сервере. docker-compose.yml позволяет настраивать и документировать все зависимости служб приложения. В нем указываются образ, порт(который можно пробросить), окрущающие среды, томы и зависимости (если нужно).
## Описание docker-compose.yml
Были выбраны следующие сервисы:
1. Postgres
2. Redmine
3. Gitea
В файле у каждого сервиса пробрасывается порт. Каждый сервис содержит том, который используются для хранения данных. Запуск Redmine и Gitea имеют зависимость от Postgres, чтобы они имели возможность накатить миграции и заполнить таблицы после создания базы. У каждого сервиса заполнен паарметр environment, где указываются данные для БД.
## Инструкция по запуску
1. Запустить приложение Docker Hub
2. Открыть консоль с помощью команды cd перейти к папке, где находится файл docker-compose.yml
3. Ввести команду для поднятия контейнеров
```
docker compose up -d
```
Дожидаемся запуска сервисов:
```
[+] Running 3/3
✔ Container yakovleva_julia_lab_1-postgres-1 Started 0.5s
✔ Container yakovleva_julia_lab_1-gitea-1 Started 1.2s
✔ Container yakovleva_julia_lab_1-redmine-1 Started 1.1s
```
4. Убедиться, что сервисы успешно запущены можно по команде:
```
docker compose ps
```
Отобразится таблица с запущенными сервисами:
```
NAME IMAGE COMMAND SERVICE CREATED STATUS PORTS
yakovleva_julia_lab_1-gitea-1 gitea/gitea:1.22.2 "/usr/bin/entrypoint…" gitea 19 minutes ago Up 6 seconds 22/tcp, 0.0.0.0:3002->3000/tcp
yakovleva_julia_lab_1-postgres-1 postgres:16.4 "docker-entrypoint.s…" postgres 19 minutes ago Up 6 seconds 0.0.0.0:5433->5432/tcp
yakovleva_julia_lab_1-redmine-1 redmine:latest "/docker-entrypoint.…" redmine 19 minutes ago Up 6 seconds 0.0.0.0:3003->3000/tcp
```
Также можно посомтреть логи каждого севриса при вводе команды:
```
docker compose logs -ft (название сервиса)
```
-ft необходим для того, чтобы читать логи сервиса в реальном времени
## Видео
[Видео](https://disk.yandex.ru/i/Ds2f4xO8vQ8XPA) работоспособности.

View File

@@ -1,45 +0,0 @@
services:
postgres:
image: postgres:16.4
ports:
- "5433:5432"
environment:
POSTGRES_USER: redmine
POSTGRES_PASSWORD: redminepass
POSTGRES_DB: redmine
volumes:
- ./postgres_data:/var/lib/postgresql/data # Volume для хранения данных PostgreSQL
restart: always
redmine:
image: redmine:latest
ports:
- "3003:3000"
volumes:
- ./redmine_data:/usr/src/redmine/files # Volume для хранения данных Redmine
environment:
REDMINE_DB_POSTGRES: postgres # Имя сервиса базы данных
REDMINE_DB_USERNAME: redmine
REDMINE_DB_PASSWORD: redminepass
REDMINE_DB_DATABASE: redmine
depends_on:
- postgres
restart: always
gitea:
image: gitea/gitea:1.22.2
ports:
- "3002:3000" # Проброс порта для доступа к Gitea
volumes:
- ./gitea_data:/data # Volume для хранения данных Gitea
environment:
- USER_UID=1000
- USER_GID=1000
- GITEA__database__DB_TYPE=postgres
- GITEA__database__HOST=postgres:5432
- GITEA__database__NAME=gitea
- GITEA__database__USER=gitea
- GITEA__database__PASSWD=gitea_password
depends_on:
- postgres
restart: always