Compare commits

..

No commits in common. "main" and "lyamzina-ma-lab-3" have entirely different histories.

2008 changed files with 7 additions and 84673 deletions

View File

@ -7,9 +7,9 @@
1. [Знакомство с docker и docker-compose](labs/lab_1/README.md) 1. [Знакомство с docker и docker-compose](labs/lab_1/README.md)
2. [Разработка простейшего распределённого приложения](labs/lab_2/README.md) 2. [Разработка простейшего распределённого приложения](labs/lab_2/README.md)
3. [REST API, Gateway и синхронный обмен между микросервисами](labs/lab_3/README.md) 3. TBA
4. [Работа с брокером сообщений](labs/lab_4/README.md) 4. TBA
5. [Параллельное умножение матриц](http://student.git.athene.tech/Alexey/DAS_2023_1/src/branch/main/labs/lab_5.md) 5. TBA
6. [Параллельный поиск значения детерминанта матрицы](http://student.git.athene.tech/Alexey/DAS_2023_1/src/branch/main/labs/lab_6.md) 6. TBA
7. [Балансировка нагрузки в распределённых системах](http://student.git.athene.tech/Alexey/DAS_2023_1/src/branch/main/labs/lab_7.md) 7. TBA
8. [Про устройство распределенных систем](http://student.git.athene.tech/Alexey/DAS_2023_1/src/branch/main/labs/lab_8.md) 8. TBA

View File

@ -1,129 +0,0 @@
# Лабораторная работа №3 - REST API, Gateway и синхронный обмен между микросервисами
Цель: изучение шаблона проектирования gateway, построения синхронного обмена между микросервисами и архитектурного стиля RESTful API.
Задачи:
1. Создать 2 микросервиса, реализующих CRUD на связанных сущностях.
2. Реализовать механизм синхронного обмена сообщениями между микросервисами.
3. Реализовать шлюз на основе прозрачного прокси-сервера nginx.
## Создание микросервисов
Создать два микросервиса.
Каждый сервис реализует CRUD-операции: список записей, подробности конкретной записи, создание, удаление и изменение записи.
В качестве хранилища данных может выступать оперативная память приложения или база данных.
Сущности необходимо подобрать по следующим критериям:
1. Они должны быть связаны с предполагаемой темой диплома.
2. Они должны быть связаны как `1-ко-многим``.
> Например, одна сущность - книга в библиотеке, вторая - абонемент.
>
> Поля абонемента: УИД (уникальный идентификатор) абонемента, Номер, ФИО читателя, Дата выдачи.
> Поля книги: УИД книги, Автор, Название, Год издания, УИД абонемента, на котором сейчас находится книга.
Общение между сервисами должно происходить при помощи API, реализованного при помощи архитектурного стиля проектирования REST.
То есть необходимо реализовать следующие endpoints:
1. "GET /" - Получение списка записей.
Должен возвращать массив моделей.
2. "GET /{uuid}" - Получение подробностей записи по УИД (uuid).
Должен возвращать модель или ошибку 404.
3. "POST /" - Создание новой записи.
Принимает на вход данные. Должен возвращать модель из п.2.
4. "PUT /{uuid}" - Обновление записи по УИД.
Принимает на вход новые данные. Должен возвращать модель из п.2 или ошибку 404.
5. "DELETE /{uuid}" - Удаление записи по УИД.
Возвращает коды 200 при успехе и 404, если запись не найдена.
Пример модели абонемента для списка и подробностей:
```json
{
"uuid": "8f036445-a5bd-401c-926e-840f9de795cd",
"number": 135,
"fullName": "Иванов И.И.",
"issued": "2023-10-18T05:41:00Z"
}
```
Пример модели абонемента для создания или изменения:
```json
{
"number": 135,
"fullName": "Иванов И.И.",
"issued": "2023-10-18T05:41:00Z"
}
```
> Как видите, нет УИДа, т.к. он присваивается системой, и изменять мы его не можем.
Пример модели книги для списка:
```json
{
"uuid": "8740d660-b251-4272-8535-be7ec3748d4b",
"author": "J.K.R.",
"subject": "HP and PS",
"year": 1997,
"subscriptionUuid": "8f036445-a5bd-401c-926e-840f9de795cd"
}
```
Пример модели книги для подробностей:
```json
{
"uuid": "8740d660-b251-4272-8535-be7ec3748d4b",
"author": "J.K.R.",
"subject": "HP and PS",
"year": 1997,
"subscriptionUuid": "8f036445-a5bd-401c-926e-840f9de795cd",
"subscriptionInfo": {
"number": 135,
"fullName": "Иванов И.И.",
"issued": "2023-10-18T05:41:00Z"
}
}
```
> Как видите, модель сильно богаче, чем при запросе списка.
>
> Как раз здесь и нужен синхронный обмен между сервисами.
Пример модели книги для создания или изменения:
```json
{
"author": "J.K.R.",
"subject": "HP and PS",
"year": 1997,
"subscriptionUuid": "8f036445-a5bd-401c-926e-840f9de795cd"
}
```
Как понять, куда обращаться микросервису книг для получения данных об абонементах?
Нам здесь поможет docker compose: код в "service" совпадает с хостом, куда следует обращаться.
## Реализация синхронного обмена
Как реализовать непосредственно работу с endpoints?
Например, использовать ASP.NET Core Minimal APIs.
[Небольшой пример, который это показывает](./example_1.cs).
Как вызвать синхронно данные с соседнего микросервиса?
Через HTTP-клиент!
[Небольшой пример, который это показывает](./example_2.cs).
## Реализация gateway при помощи nginx
Один сервер, несколько location, proxy_pass по хосту из docker-compose.yml, открытые порты наружу и... всё.
[Пример файла с настройкой nginx](./example_nginx.conf).
[Ещё один пример связи воркеров и nginx](../../tasks/moiseev-vv/lab_3).

View File

@ -1,76 +0,0 @@
List<TaskEntity> tasks = new()
{
new TaskEntity() { Uuid= Guid.NewGuid(), Subject = "Сдать третью лабу", IsCompleted = false },
};
var builder = WebApplication.CreateBuilder(args);
var app = builder.Build();
// Массив сущностей.
app.MapGet("/", () =>
{
return tasks.Select(t => new TaskEntityDto()
{
Uuid = t.Uuid,
Subject = t.Subject,
IsCompleted = t.IsCompleted,
});
});
// Подробности сущности.
app.MapGet("/{uuid}", (Guid uuid) =>
{
var task = tasks.FirstOrDefault(t => t.Uuid == uuid);
if (task == null)
return Results.NotFound();
return Results.Json(new TaskEntityDto()
{
Uuid = task.Uuid,
Subject = task.Subject,
IsCompleted = task.IsCompleted,
});
});
// Создание сущности.
app.MapPost("/", () => { throw new NotImplementedException(); });
// Изменение сущности.
app.MapPut("/{uuid}", () => { throw new NotImplementedException(); });
// Удаление сущности.
app.MapPost("/", () => { throw new NotImplementedException(); });
app.Run();
/// <summary>
/// Сама сущность.
/// </summary>
public class TaskEntity
{
public Guid Uuid { get; set; }
public string Subject { get; set; } = string.Empty;
public bool IsCompleted { get; set; }
}
/// <summary>
/// DTO-класс для описания сущности в API.
/// </summary>
public class TaskEntityDto : TaskEntity { }
/// <summary>
/// Запрос на создание сущности.
/// </summary>
public class TaskCreateRequest
{
public string Subject { get; set; } = string.Empty;
public bool IsCompleted { get; set; }
}
/// <summary>
/// Запрос на изменение сущности.
/// </summary>
public class TaskEditRequest
{
public string Subject { get; set; } = string.Empty;
public bool IsCompleted { get; set; }
}

View File

@ -1,26 +0,0 @@
var builder = WebApplication.CreateBuilder(args);
builder.Services.AddHttpClient(); // Добавляем библиотеку по работе с HTTP.
var app = builder.Build();
// Да, по заданию надо будет запрашивать метод /{uuid}. Тут запрашивается список.
app.MapGet("/", async (IHttpClientFactory httpClientFactory) =>
{
var remoteHost = "http://localhost:5158"; // Адрес, по которому развёрнут микросервис с задачами. В docker compose тут будет имя service.
var client = httpClientFactory.CreateClient();
var response = await client.GetFromJsonAsync<List<TaskEntityDto>>(remoteHost);
if (response == null)
return Results.BadRequest();
return Results.Ok($"Соседний микросервис отдал следующие задачи: {string.Join(", ", response.Select(i => i.Subject))}");
});
app.Run();
/// <summary>
/// DTO-класс для описания сущности из другого микросервиса.
/// </summary>
public class TaskEntityDto
{
public Guid Uuid { get; set; }
public string Subject { get; set; } = string.Empty;
public bool IsCompleted { get; set; }
}

View File

@ -1,21 +0,0 @@
server {
listen 80;
listen [::]:80;
server_name localhost;
location /test/ {
proxy_pass http://test:80/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Prefix /test;
}
location /admin/ {
proxy_pass http://admin:80/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Prefix /admin;
}
}

View File

@ -1,59 +0,0 @@
# Лабораторная работа №4 - Работа с брокером сообщений
**Цель**: изучение проектирования приложений при помощи брокера сообщений.
**Задачи**:
1. Установить брокер сообщений RabbitMQ.
2. Пройти уроки 1, 2 и 3 из [RabbitMQ Tutorials](https://www.rabbitmq.com/getstarted.html) на любом языке программирования.
3. Продемонстрировать работу брокера сообщений.
## Установка брокера сообщений RabbitMQ
Можно не использовать Docker и использовать локальный ПК.
[Страница скачивания RabbitMQ с офф. сайта](https://www.rabbitmq.com/download.html).
[Страница релизов RabbitMQ](https://github.com/rabbitmq/rabbitmq-server/releases/), где есть бинарные установщики для всех современных платформ.
## Прохождение tutorial
Достаточно для каждого урока скриншота, где виден запуск одновременно `producer` и `consumer`, а также видно, что сообщения передаются.
## Разработка демонстрационных приложений
См. 3 главу tutorial.
Необходимо выбрать предметную область и разработать следующие приложения:
1. **Publisher**.
Программа, которая создаёт один **exchange** с типом _fanout_.
Программа должна раз в секунду генерировать сообщения в журнал событий согласно вашей предметной области.
Например, событие "пришёл заказ" или "сообщение от пользователя" или "необходимо создать отчёт".
2. **Consumer 1**.
Программа, которая создаёт под себя отдельную не анонимную (!) очередь (**queue**) (то есть имя queue НЕ пустая строка), создаёт **binding** на **exchange** и начинает принимать сообщения (_consume_).
Программа должна обрабатывать сообщения 2-3 секунды.
Можно реализовать через обычный _Thread.Sleep_ (для C#).
3. **Consumer 2**.
Аналогично _Consumer 1_, только сообщения необходимо обрабатывать моментально.
Только имя очереди должно отличаться от _Consumer 1_.
Далее необходимо собрать и запустить приложения одновременно по одному экземпляру.
Сделать в отчёте вывод о скорости обработки _consumer_-ами событий от _publisher_-а.
Для этого можно посмотреть заполненность созданных очередей.
А для этого можно использовать скриншот из **RabbitMQ Management UI**.
Запустить несколько копий _Consumer 1_.
Проверить заново заполненность очередей через _UI_.
## Правила оформления pull request
Код и отчёт со скриншотами необходимо положить в папку `tasks/фамилия-инициалы/lab_4`.
Не забудьте о файле `.gitignore`, чтобы не закоммитить ничего лишнего.
Для C#-проектов это, например, папки `bin` и `obj`.
Правила именования ветки: `фамилия-инициалы-lab-номер`, например, `moiseev-vv-lab-4`.
Название pull request: `[Л/Р 4] ФАМИЛИЯ ИМЯ`, например, `[Л/Р 4] Моисеев Владислав`.

View File

@ -1,149 +0,0 @@
# Отчёт по лабораторной работе №1
Выполнил: студент гр. ИСЭбд-41, Мельников К.Ю.
## Разворачивание сервиса Gitea
Содержимое файла `docker-compose.yml` в папке Gitea:
```yaml
version: "3"
networks:
gitea:
external: false
# Контейнер Gitea
services: # Описание служб
server:
image: gitea/gitea:1.20.4 # Образ gitea
container_name: gitea # Наименование контейнера
environment: # Наши параметры
- USER_UID=1000
- USER_GID=1000
- GITEA__database__DB_TYPE=mysql
- GITEA__database__HOST=db:3306
- GITEA__database__NAME=gitea
- GITEA__database__USER=gitea
- GITEA__database__PASSWD=gitea
restart: always
networks: # Параметры сети
- gitea
volumes: # Каталоги для хранения данных контейнера
- ./gitea:/data
- /etc/timezone:/etc/timezone:ro
- /etc/localtime:/etc/localtime:ro
ports: # Порт локальный и внутри сети
- "3000:3000"
- "222:22"
depends_on:
- db
# База данных
db:
image: mysql:8 # Образ БД и версия
restart: always # Параметр перезапуска
environment: # Подключаем каталог с базой данных
- MYSQL_ROOT_PASSWORD=gitea
- MYSQL_USER=gitea
- MYSQL_PASSWORD=gitea
- MYSQL_DATABASE=gitea
networks: # Параметры сети
- gitea
volumes: # Том для хранения данных БД
- ./mysql:/var/lib/mysql
```
Далее в командной строке разворачиваем сервис командой `docker-compose up -d`:
![](scrins/1.png)
Открываем Docker Desktop и проверяем, что контейнер сервера БД и Gitea созданы и запущены:
![](scrins/2.png)
Переходим на http://localhost:222:
![](scrins/3.png)
Регистрируемся и автоматически входим в учетную запись:
![](scrins/4.png)
![](scrins/5.png)
## Разворачивание сервиса Wordpress
Также в файл `docker-compose.yml` в папке Wordpress прописываем следующий код:
```yaml
version: '3.1'
services:
# Контейнер Wordpress
wordpress:
image: wordpress # Образ
restart: always # Параметр перезапуска
ports: # На каком порте запускаем
- 7071:80
environment: # Настройки БД WordPress для подключения
WORDPRESS_DB_HOST: database # Имя хоста БД MySQL
WORDPRESS_DB_USER: user # Имя пользователя БД
WORDPRESS_DB_PASSWORD: password # Пароль пользователя БД
WORDPRESS_DB_NAME: name_database # Имя БД
volumes: # Каталог хранения файлов WordPress
- wordpress:/var/www/html
# Контейнер MySQL
database:
image: mysql:5.7 # Образ и его версия
restart: always # Параметр перезапуска
environment: # Настройки БД для подключения
MYSQL_DATABASE: name_database
MYSQL_USER: user
MYSQL_PASSWORD: password
MYSQL_RANDOM_ROOT_PASSWORD: '12345'
volumes: # Каталог хранения данных БД
- database:/var/lib/mysql
volumes:
wordpress:
database:
```
Далее в командной строке разворачиваем сервис командой `docker-compose up -d`:
![](scrins/6.png)
Открываем Docker Desktop и проверяем, что контейнер сервера БД и Wordpress созданы и запущены
Устанавливаем Wordpress и проверяем, что все работает:
![](scrins/7.png)
![](scrins/8.png)
## Разворачивание сервиса Redmine
Также в файл `docker-compose.yml` в папке Redmine прописываем код:
```yaml
version: '3.1'
services:
# Контейнер Redmine
redmine:
image: redmine # Образ контейнера
restart: always
ports: # На какой порт запускать
- 8080:3000
environment:
REDMINE_DB_MYSQL: db
REDMINE_DB_PASSWORD: example
REDMINE_SECRET_KEY_BASE: supersecretkey
# Контейнер БД MySQL
db:
image: mysql:5.7 # Образ БД и ее версия
restart: always
environment: # Название и пароль админа БД
MYSQL_ROOT_PASSWORD: example
MYSQL_DATABASE: redmine
```
Далее в командной строке разворачиваем сервис командой `docker-compose up -d`:
Открываем Docker Desktop и проверяем, что контейнер сервера БД и Redmine созданы и запущены:
![](scrins/10.png)
Переходим на http://localhost:8080:
![](scrins/9.png)
Регистрируемся и проверяем, что все работает:

Binary file not shown.

Before

Width:  |  Height:  |  Size: 37 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 95 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 91 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 23 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 173 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 170 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 24 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 198 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 17 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 47 KiB

View File

@ -1,23 +0,0 @@
# Отчет по лабораторной работе №7
Выполнил студент гр. ИСЭбд-41 Дунаев О.И.
## Задачи
Написать небольшое эссе (буквально несколько абзацев) своими словами. А помогут Вам в этом вопросы из списка:
1. Какие алгоритмы и методы используются для балансировки нагрузки?
2. Какие открытые технологии существуют для балансировки нагрузки?
3. Как осуществляется балансировка нагрузки на базах данных?
4. Реверс-прокси как один из элементов балансировки нагрузки.
## Эссе
Балансировка нагрузки это важный процесс в сфере информационных технологий, который позволяет равномерно распределять нагрузку между компьютерами, серверами или другими ресурсами для обеспечения оптимальной производительности системы. В данном эссе я рассмотрю несколько вопросов, связанных с алгоритмами и методами балансировки нагрузки, открытыми технологиями, а также балансировкой нагрузки на базах данных и использованием реверс-прокси.
Первый вопрос касается алгоритмов и методов, используемых для балансировки нагрузки. Существует несколько подходов, таких как раунд-робин, весовая нагрузка, наименьшее количество соединений и IP хэширование. Раунд-робин распределяет запросы по всем доступным серверам одинаковым образом. Весовая нагрузка позволяет приоритезировать определенные серверы и передавать им больше запросов. Наименьшее количество соединений выбирает сервер с наименьшим количеством активных соединений. IP хэширование использует IP-адрес клиента для определения сервера, который будет обрабатывать его запросы.
Второй вопрос касается открытых технологий для балансировки нагрузки. Среди них можно выделить HAProxy, NGINX, Apache HTTP Server и AWS Elastic Load Balancer. HAProxy является высокопроизводительным реверс-прокси, который поддерживает различные алгоритмы балансировки нагрузки. NGINX также является реверс-прокси и обладает возможностями балансировки нагрузки. Apache HTTP Server предоставляет модуль mod_proxy_balancer для балансировки нагрузки. AWS Elastic Load Balancer предоставляет гибкую и масштабируемую балансировку нагрузки в облачной среде.
Третий вопрос касается балансировки нагрузки на базах данных. Для балансировки нагрузки на базах данных используются различные методы, такие как горизонтальное шардирование, репликация и кэширование. Горизонтальное шардирование разделяет данные на несколько фрагментов и распределяет их по разным серверам. Репликация создает копии базы данных на разных серверах для обработки запросов. Кэширование позволяет хранить результаты часто используемых запросов для улучшения производительности.
Реверс-прокси является важным элементом балансировки нагрузки. Он работает на стороне сервера и перенаправляет запросы с клиента на разные серверы в зависимости от текущей нагрузки. Реверс-прокси предоставляет централизованную точку контроля над серверами, обеспечивает отказоустойчивость и улучшает производительность системы.

View File

@ -1,484 +0,0 @@
## Ignore Visual Studio temporary files, build results, and
## files generated by popular Visual Studio add-ons.
##
## Get latest from `dotnet new gitignore`
# dotenv files
.env
# User-specific files
*.rsuser
*.suo
*.user
*.userosscache
*.sln.docstates
# User-specific files (MonoDevelop/Xamarin Studio)
*.userprefs
# Mono auto generated files
mono_crash.*
# Build results
[Dd]ebug/
[Dd]ebugPublic/
[Rr]elease/
[Rr]eleases/
x64/
x86/
[Ww][Ii][Nn]32/
[Aa][Rr][Mm]/
[Aa][Rr][Mm]64/
bld/
[Bb]in/
[Oo]bj/
[Ll]og/
[Ll]ogs/
# Visual Studio 2015/2017 cache/options directory
.vs/
# Uncomment if you have tasks that create the project's static files in wwwroot
#wwwroot/
# Visual Studio 2017 auto generated files
Generated\ Files/
# MSTest test Results
[Tt]est[Rr]esult*/
[Bb]uild[Ll]og.*
# NUnit
*.VisualState.xml
TestResult.xml
nunit-*.xml
# Build Results of an ATL Project
[Dd]ebugPS/
[Rr]eleasePS/
dlldata.c
# Benchmark Results
BenchmarkDotNet.Artifacts/
# .NET
project.lock.json
project.fragment.lock.json
artifacts/
# Tye
.tye/
# ASP.NET Scaffolding
ScaffoldingReadMe.txt
# StyleCop
StyleCopReport.xml
# Files built by Visual Studio
*_i.c
*_p.c
*_h.h
*.ilk
*.meta
*.obj
*.iobj
*.pch
*.pdb
*.ipdb
*.pgc
*.pgd
*.rsp
*.sbr
*.tlb
*.tli
*.tlh
*.tmp
*.tmp_proj
*_wpftmp.csproj
*.log
*.tlog
*.vspscc
*.vssscc
.builds
*.pidb
*.svclog
*.scc
# Chutzpah Test files
_Chutzpah*
# Visual C++ cache files
ipch/
*.aps
*.ncb
*.opendb
*.opensdf
*.sdf
*.cachefile
*.VC.db
*.VC.VC.opendb
# Visual Studio profiler
*.psess
*.vsp
*.vspx
*.sap
# Visual Studio Trace Files
*.e2e
# TFS 2012 Local Workspace
$tf/
# Guidance Automation Toolkit
*.gpState
# ReSharper is a .NET coding add-in
_ReSharper*/
*.[Rr]e[Ss]harper
*.DotSettings.user
# TeamCity is a build add-in
_TeamCity*
# DotCover is a Code Coverage Tool
*.dotCover
# AxoCover is a Code Coverage Tool
.axoCover/*
!.axoCover/settings.json
# Coverlet is a free, cross platform Code Coverage Tool
coverage*.json
coverage*.xml
coverage*.info
# Visual Studio code coverage results
*.coverage
*.coveragexml
# NCrunch
_NCrunch_*
.*crunch*.local.xml
nCrunchTemp_*
# MightyMoose
*.mm.*
AutoTest.Net/
# Web workbench (sass)
.sass-cache/
# Installshield output folder
[Ee]xpress/
# DocProject is a documentation generator add-in
DocProject/buildhelp/
DocProject/Help/*.HxT
DocProject/Help/*.HxC
DocProject/Help/*.hhc
DocProject/Help/*.hhk
DocProject/Help/*.hhp
DocProject/Help/Html2
DocProject/Help/html
# Click-Once directory
publish/
# Publish Web Output
*.[Pp]ublish.xml
*.azurePubxml
# Note: Comment the next line if you want to checkin your web deploy settings,
# but database connection strings (with potential passwords) will be unencrypted
*.pubxml
*.publishproj
# Microsoft Azure Web App publish settings. Comment the next line if you want to
# checkin your Azure Web App publish settings, but sensitive information contained
# in these scripts will be unencrypted
PublishScripts/
# NuGet Packages
*.nupkg
# NuGet Symbol Packages
*.snupkg
# The packages folder can be ignored because of Package Restore
**/[Pp]ackages/*
# except build/, which is used as an MSBuild target.
!**/[Pp]ackages/build/
# Uncomment if necessary however generally it will be regenerated when needed
#!**/[Pp]ackages/repositories.config
# NuGet v3's project.json files produces more ignorable files
*.nuget.props
*.nuget.targets
# Microsoft Azure Build Output
csx/
*.build.csdef
# Microsoft Azure Emulator
ecf/
rcf/
# Windows Store app package directories and files
AppPackages/
BundleArtifacts/
Package.StoreAssociation.xml
_pkginfo.txt
*.appx
*.appxbundle
*.appxupload
# Visual Studio cache files
# files ending in .cache can be ignored
*.[Cc]ache
# but keep track of directories ending in .cache
!?*.[Cc]ache/
# Others
ClientBin/
~$*
*~
*.dbmdl
*.dbproj.schemaview
*.jfm
*.pfx
*.publishsettings
orleans.codegen.cs
# Including strong name files can present a security risk
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
#*.snk
# Since there are multiple workflows, uncomment next line to ignore bower_components
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
#bower_components/
# RIA/Silverlight projects
Generated_Code/
# Backup & report files from converting an old project file
# to a newer Visual Studio version. Backup files are not needed,
# because we have git ;-)
_UpgradeReport_Files/
Backup*/
UpgradeLog*.XML
UpgradeLog*.htm
ServiceFabricBackup/
*.rptproj.bak
# SQL Server files
*.mdf
*.ldf
*.ndf
# Business Intelligence projects
*.rdl.data
*.bim.layout
*.bim_*.settings
*.rptproj.rsuser
*- [Bb]ackup.rdl
*- [Bb]ackup ([0-9]).rdl
*- [Bb]ackup ([0-9][0-9]).rdl
# Microsoft Fakes
FakesAssemblies/
# GhostDoc plugin setting file
*.GhostDoc.xml
# Node.js Tools for Visual Studio
.ntvs_analysis.dat
node_modules/
# Visual Studio 6 build log
*.plg
# Visual Studio 6 workspace options file
*.opt
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
*.vbw
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
*.vbp
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
*.dsw
*.dsp
# Visual Studio 6 technical files
*.ncb
*.aps
# Visual Studio LightSwitch build output
**/*.HTMLClient/GeneratedArtifacts
**/*.DesktopClient/GeneratedArtifacts
**/*.DesktopClient/ModelManifest.xml
**/*.Server/GeneratedArtifacts
**/*.Server/ModelManifest.xml
_Pvt_Extensions
# Paket dependency manager
.paket/paket.exe
paket-files/
# FAKE - F# Make
.fake/
# CodeRush personal settings
.cr/personal
# Python Tools for Visual Studio (PTVS)
__pycache__/
*.pyc
# Cake - Uncomment if you are using it
# tools/**
# !tools/packages.config
# Tabs Studio
*.tss
# Telerik's JustMock configuration file
*.jmconfig
# BizTalk build output
*.btp.cs
*.btm.cs
*.odx.cs
*.xsd.cs
# OpenCover UI analysis results
OpenCover/
# Azure Stream Analytics local run output
ASALocalRun/
# MSBuild Binary and Structured Log
*.binlog
# NVidia Nsight GPU debugger configuration file
*.nvuser
# MFractors (Xamarin productivity tool) working folder
.mfractor/
# Local History for Visual Studio
.localhistory/
# Visual Studio History (VSHistory) files
.vshistory/
# BeatPulse healthcheck temp database
healthchecksdb
# Backup folder for Package Reference Convert tool in Visual Studio 2017
MigrationBackup/
# Ionide (cross platform F# VS Code tools) working folder
.ionide/
# Fody - auto-generated XML schema
FodyWeavers.xsd
# VS Code files for those working on multiple tools
.vscode/*
!.vscode/settings.json
!.vscode/tasks.json
!.vscode/launch.json
!.vscode/extensions.json
*.code-workspace
# Local History for Visual Studio Code
.history/
# Windows Installer files from build outputs
*.cab
*.msi
*.msix
*.msm
*.msp
# JetBrains Rider
*.sln.iml
.idea
##
## Visual studio for Mac
##
# globs
Makefile.in
*.userprefs
*.usertasks
config.make
config.status
aclocal.m4
install-sh
autom4te.cache/
*.tar.gz
tarballs/
test-results/
# Mac bundle stuff
*.dmg
*.app
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
# General
.DS_Store
.AppleDouble
.LSOverride
# Icon must end with two \r
Icon
# Thumbnails
._*
# Files that might appear in the root of a volume
.DocumentRevisions-V100
.fseventsd
.Spotlight-V100
.TemporaryItems
.Trashes
.VolumeIcon.icns
.com.apple.timemachine.donotpresent
# Directories potentially created on remote AFP share
.AppleDB
.AppleDesktop
Network Trash Folder
Temporary Items
.apdisk
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
# Windows thumbnail cache files
Thumbs.db
ehthumbs.db
ehthumbs_vista.db
# Dump file
*.stackdump
# Folder config file
[Dd]esktop.ini
# Recycle Bin used on file shares
$RECYCLE.BIN/
# Windows Installer files
*.cab
*.msi
*.msix
*.msm
*.msp
# Windows shortcuts
*.lnk
# Vim temporary swap files
*.swp

View File

@ -1,80 +0,0 @@
# Отчет по лабораторной работе №3
Выполнил студент гр. ИСЭбд-41 Дунаев О.И.
## REST API, Gateway и синхронный обмен между микросервисами
## Создание микросервисов
1. С помощью команды `dotnet new web -n worker-2` в терминале создал первый микросервис.
2. Добавил решение командой `dotnet new sln`
3. Связал решение и проект командой `dotnet sln worker-2.sln add worker-2.csproj`
4. Повторил действие для второго микросервиса
5. Добавил библиотеку Swagger и OpenAi в проекты и запустил с помощью команды `dotnet run`
Скриншоты протестированных микросервисов:
![](pic/1.png)
![](pic/2.png)
![](pic/4.png)
## Реализация синхронного обмена
Реализовал код, который вызывает сихронно данные из соседнего микросервиса.
```cs
//worker-2
app.MapGet("/Locations/", async () =>
{
var httpClient = new HttpClient();
var secondWorkerResponse = await httpClient.GetStringAsync("http://worker-1:8080/");
return secondWorkerResponse.ToArray();
})
.WithName("GetBreeds")
.WithOpenApi();
## Реализация gateway при помощи nginx
Добавил nginx.conf:
```conf
server {
listen 8080;
listen [::]:8080;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
location /worker-1/ {
proxy_pass http://worker-1:8080/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Prefix /worker-1;
}
location /worker-2/ {
proxy_pass http://worker-2:8080/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Prefix /worker-2;
}
}
```
Результат, после выполнения команды `docker-compose up`:
Docker:
![](pic/3.png)
![](pic/5.png)

View File

@ -1,15 +0,0 @@
version: "3.1"
services:
worker-1:
build: ./worker-1
worker-2:
build: ./worker-2
depends_on:
- worker-1
gateway:
image: nginx:latest
ports:
- 8080:8080
volumes:
- ./static:/usr/share/nginx/html:ro
- ./nginx.conf:/etc/nginx/conf.d/default.conf:ro

View File

@ -1,26 +0,0 @@
server {
listen 8080;
listen [::]:8080;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
location /worker-1/ {
proxy_pass http://worker-1:8080/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Prefix /worker-1;
}
location /worker-2/ {
proxy_pass http://worker-2:8080/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Prefix /worker-2;
}
}

Binary file not shown.

Before

Width:  |  Height:  |  Size: 18 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 46 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 19 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 18 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 13 KiB

View File

@ -1,13 +0,0 @@
<!DOCTYPE html>
<html lang="ru">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>Тестовое приложение для л/р 3</title>
</head>
<body>
<p>Дунаев О.И. ИСЭбд-41.</p>
<p><a href="/worker-1/">Отправить запрос к worker-1</a></p>
<p><a href="/worker-2/">Отправить запрос к worker-2</a></p>
</body>
</html>

View File

@ -1,11 +0,0 @@
FROM mcr.microsoft.com/dotnet/sdk:7.0 AS build-env
WORKDIR /app
COPY . ./
RUN dotnet restore
RUN dotnet publish -c Release -o out
FROM mcr.microsoft.com/dotnet/aspnet:7.0
WORKDIR /app
COPY --from=build-env /app/out .
ENTRYPOINT ["dotnet", "worker-1.dll"]

View File

@ -1,112 +0,0 @@
List<Pets> pets = new()
{
new Pets() { Uuid= Guid.Parse("6a1b4a72-5669-41fe-8d5b-106dc86f58bd"), Animals = "Кот", Breed = "Бигль"},
new Pets() { Uuid= Guid.Parse("464bbdb8-39c0-4644-b9c0-3df1c484ea7e"), Animals = "Собака", Breed = "Мейн-Кун"},
new Pets() { Uuid= Guid.Parse("f8692bea-b7e6-4164-b564-a921f16c35c9"), Animals = "Хомяк", Breed = "Лемминг"},
};
var builder = WebApplication.CreateBuilder(args);
builder.Services.AddEndpointsApiExplorer();
builder.Services.AddSwaggerGen();
var app = builder.Build();
if (app.Environment.IsDevelopment())
{
app.UseSwagger();
app.UseSwaggerUI();
}
app.UseHttpsRedirection();
app.MapGet("/", () =>
{
return pets.Select(r => new PetEntityDto()
{
Uuid = r.Uuid,
Animals = r.Animals,
Breed = r.Breed,
});
})
.WithName("GetPets")
.WithOpenApi();
app.MapGet("/{uuid}", (Guid uuid) =>
{
var pet = pets.FirstOrDefault(r => r.Uuid == uuid);
if (pet == null)
return Results.NotFound();
return Results.Json(new PetEntityDto()
{
Uuid = pet.Uuid,
Animals = pet.Animals,
Breed = pet.Breed,
});
})
.WithName("GetPetByGUID")
.WithOpenApi();
app.MapPost("/{animals}/{breed}", (string Animals, string Breed) =>
{
Guid NewGuid = Guid.NewGuid();
pets.Add(new Pets() { Uuid = NewGuid, Animals = (string)Animals, Breed = (string)Breed});
var pet = pets.FirstOrDefault(r => r.Uuid == NewGuid);
if (pet == null)
return Results.NotFound();
return Results.Json(new PetEntityDto()
{
Uuid = pet.Uuid,
Animals = pet.Animals,
Breed = pet.Breed,
});
})
.WithName("PostPet")
.WithOpenApi();
app.MapPatch("/{uuid}/{animals}/{breed}", (Guid uuid, string ?animals, string ?breed) =>
{
var pet = pets.FirstOrDefault(r => r.Uuid == uuid);
if (pet == null)
return Results.NotFound();
if (animals != null) pet.Animals = animals;
if (breed != null) pet.Breed = breed;
return Results.Json(new PetEntityDto()
{
Uuid = pet.Uuid,
Animals = pet.Animals,
Breed = pet.Breed,
});
})
.WithName("UpdatePet")
.WithOpenApi();
app.MapDelete("/{uuid}", (Guid uuid) =>
{
var pet = pets.FirstOrDefault(r => r.Uuid == uuid);
if (pet == null)
return Results.NotFound();
pets.Remove(pet);
return Results.Json(new PetEntityDto()
{
Uuid = pet.Uuid,
Animals = pet.Animals,
Breed = pet.Breed,
});
})
.WithName("DeletePetByGUID")
.WithOpenApi();
app.Run();
public class Pets
{
public Guid Uuid { get; set; }
public string Animals { get; set; } = string.Empty;
public string Breed { get; set; } = string.Empty;
}
public class PetEntityDto : Pets { }

View File

@ -1,38 +0,0 @@
{
"$schema": "http://json.schemastore.org/launchsettings.json",
"iisSettings": {
"windowsAuthentication": false,
"anonymousAuthentication": true,
"iisExpress": {
"applicationUrl": "http://localhost:51956",
"sslPort": 44303
}
},
"profiles": {
"http": {
"commandName": "Project",
"dotnetRunMessages": true,
"launchBrowser": true,
"applicationUrl": "http://localhost:5197",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"https": {
"commandName": "Project",
"dotnetRunMessages": true,
"launchBrowser": true,
"applicationUrl": "https://localhost:7027;http://localhost:5197",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"IIS Express": {
"commandName": "IISExpress",
"launchBrowser": true,
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
}
}
}

View File

@ -1,8 +0,0 @@
{
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
}
}

View File

@ -1,9 +0,0 @@
{
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
},
"AllowedHosts": "*"
}

View File

@ -1,15 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk.Web">
<PropertyGroup>
<TargetFramework>net7.0</TargetFramework>
<Nullable>enable</Nullable>
<ImplicitUsings>enable</ImplicitUsings>
<RootNamespace>worker_1</RootNamespace>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.AspNetCore.OpenApi" Version="7.0.0" />
<PackageReference Include="Swashbuckle.AspNetCore" Version="6.5.0" />
</ItemGroup>
</Project>

View File

@ -1,22 +0,0 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.0.31903.59
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "worker-1", "worker-1.csproj", "{90F6C7BD-78E2-47C8-A702-DD47E74D3865}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{90F6C7BD-78E2-47C8-A702-DD47E74D3865}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{90F6C7BD-78E2-47C8-A702-DD47E74D3865}.Debug|Any CPU.Build.0 = Debug|Any CPU
{90F6C7BD-78E2-47C8-A702-DD47E74D3865}.Release|Any CPU.ActiveCfg = Release|Any CPU
{90F6C7BD-78E2-47C8-A702-DD47E74D3865}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
EndGlobal

View File

@ -1,11 +0,0 @@
FROM mcr.microsoft.com/dotnet/sdk:7.0 AS build-env
WORKDIR /app
COPY . ./
RUN dotnet restore
RUN dotnet publish -c Release -o out
FROM mcr.microsoft.com/dotnet/aspnet:7.0
WORKDIR /app
COPY --from=build-env /app/out .
ENTRYPOINT ["dotnet", "worker-2.dll"]

View File

@ -1,139 +0,0 @@
List<Location> locations = new()
{
new Location() { Uuid= Guid.NewGuid(), Habitat = "Америка", IsSingleLocation = true, IdBreed = Guid.Parse("6a1b4a72-5669-41fe-8d5b-106dc86f58bd") },
new Location() { Uuid= Guid.NewGuid(), Habitat = "Россия", IsSingleLocation = false, IdBreed = Guid.Parse("f8692bea-b7e6-4164-b564-a921f16c35c9") },
new Location() { Uuid= Guid.NewGuid(), Habitat = "Китай", IsSingleLocation = false, IdBreed = Guid.Parse("464bbdb8-39c0-4644-b9c0-3df1c484ea7e") },
new Location() { Uuid= Guid.NewGuid(), Habitat = "Хорватия", IsSingleLocation = true, IdBreed = Guid.Parse("464bbdb8-39c0-4644-b9c0-3df1c484ea7e") },
};
var builder = WebApplication.CreateBuilder(args);
builder.Services.AddEndpointsApiExplorer();
builder.Services.AddSwaggerGen();
var app = builder.Build();
if (app.Environment.IsDevelopment())
{
app.UseSwagger();
app.UseSwaggerUI();
}
app.UseHttpsRedirection();
app.MapGet("/", () =>
{
return locations.Select(r => new LocationEntityDto()
{
Uuid = r.Uuid,
Habitat = r.Habitat,
IsSingleLocation = r.IsSingleLocation,
IdBreed = r.IdBreed,
});
})
.WithName("GetLocations")
.WithOpenApi();
app.MapGet("/{uuid}", (Guid uuid) =>
{
var location = locations.FirstOrDefault(r => r.Uuid == uuid);
if (location == null)
return Results.NotFound();
return Results.Json(new LocationEntityDto()
{
Uuid = location.Uuid,
Habitat = location.Habitat,
IsSingleLocation = location.IsSingleLocation,
IdBreed = location.IdBreed,
});
})
.WithName("GetLocationByGUID")
.WithOpenApi();
app.MapPost("/{habitat}/{isSingleLocation}/{idBreed}", (string? Habitat, bool IsSingleLocation, Guid IdBreed) =>
{
Guid NewGuid = Guid.NewGuid();
locations.Add(new Location() { Uuid = NewGuid, Habitat = (string)Habitat, IsSingleLocation = (bool)IsSingleLocation, IdBreed = (Guid)IdBreed });
var location = locations.FirstOrDefault(r => r.Uuid == NewGuid);
if (location == null)
return Results.NotFound();
return Results.Json(new LocationEntityDto()
{
Uuid = location.Uuid,
Habitat = location.Habitat,
IsSingleLocation = location.IsSingleLocation,
IdBreed = location.IdBreed,
});
})
.WithName("PostLocation")
.WithOpenApi();
app.MapPatch("/{uuid}/{habitat}/{isSingleLocation}/{idBreed}", (Guid uuid, string ?habitat, bool isSingleLocation, Guid idBreed) =>
{
var location = locations.FirstOrDefault(r => r.Uuid == uuid);
if (location == null)
return Results.NotFound();
if (habitat != ",") location.Habitat = habitat;
if (isSingleLocation != location.IsSingleLocation) location.IsSingleLocation = isSingleLocation;
if (idBreed != location.IdBreed) location.IdBreed = idBreed;
return Results.Json(new LocationEntityDto()
{
Uuid = location.Uuid,
Habitat = location.Habitat,
IsSingleLocation = location.IsSingleLocation,
IdBreed = location.IdBreed,
});
})
.WithName("UpdateLocation")
.WithOpenApi();
app.MapDelete("/{uuid}", (Guid uuid) =>
{
var location = locations.FirstOrDefault(r => r.Uuid == uuid);
if (location == null)
return Results.NotFound();
locations.Remove(location);
return Results.Json(new LocationEntityDto()
{
Uuid = location.Uuid,
Habitat = location.Habitat,
IsSingleLocation = location.IsSingleLocation,
IdBreed = location.IdBreed,
});
})
.WithName("DeleteLocation")
.WithOpenApi();
app.MapGet("/Locations/", async () =>
{
var httpClient = new HttpClient();
var secondWorkerResponse = await httpClient.GetStringAsync("http://worker-1:8080/");
return secondWorkerResponse.ToArray();
})
.WithName("GetBreeds")
.WithOpenApi();
app.Run();
public class Location
{
public Guid Uuid { get; set; }
public string Habitat { get; set; } = string.Empty;
public bool IsSingleLocation { get; set; }
public Guid IdBreed { get; set; }
}
public class LocationEntityDto : Location { }
public class Breeds
{
public Guid Uuid { get; set; }
public string Animals { get; set; } = string.Empty;
public string Breed { get; set; } = string.Empty;
}
public class BreedEntityDto : Breeds { }

View File

@ -1,38 +0,0 @@
{
"$schema": "http://json.schemastore.org/launchsettings.json",
"iisSettings": {
"windowsAuthentication": false,
"anonymousAuthentication": true,
"iisExpress": {
"applicationUrl": "http://localhost:36404",
"sslPort": 44384
}
},
"profiles": {
"http": {
"commandName": "Project",
"dotnetRunMessages": true,
"launchBrowser": true,
"applicationUrl": "http://localhost:5101",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"https": {
"commandName": "Project",
"dotnetRunMessages": true,
"launchBrowser": true,
"applicationUrl": "https://localhost:7125;http://localhost:5101",
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
},
"IIS Express": {
"commandName": "IISExpress",
"launchBrowser": true,
"environmentVariables": {
"ASPNETCORE_ENVIRONMENT": "Development"
}
}
}
}

View File

@ -1,8 +0,0 @@
{
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
}
}

View File

@ -1,9 +0,0 @@
{
"Logging": {
"LogLevel": {
"Default": "Information",
"Microsoft.AspNetCore": "Warning"
}
},
"AllowedHosts": "*"
}

View File

@ -1,15 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk.Web">
<PropertyGroup>
<TargetFramework>net7.0</TargetFramework>
<Nullable>enable</Nullable>
<ImplicitUsings>enable</ImplicitUsings>
<RootNamespace>worker_2</RootNamespace>
</PropertyGroup>
<ItemGroup>
<PackageReference Include="Microsoft.AspNetCore.OpenApi" Version="7.0.0" />
<PackageReference Include="Swashbuckle.AspNetCore" Version="6.5.0" />
</ItemGroup>
</Project>

View File

@ -1,22 +0,0 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.0.31903.59
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "worker-2", "worker-2.csproj", "{C9D63524-2C63-4E86-91B6-D86955CFA5F8}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{C9D63524-2C63-4E86-91B6-D86955CFA5F8}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{C9D63524-2C63-4E86-91B6-D86955CFA5F8}.Debug|Any CPU.Build.0 = Debug|Any CPU
{C9D63524-2C63-4E86-91B6-D86955CFA5F8}.Release|Any CPU.ActiveCfg = Release|Any CPU
{C9D63524-2C63-4E86-91B6-D86955CFA5F8}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
EndGlobal

View File

@ -1,3 +0,0 @@
# Default ignored files
/shelf/
/workspace.xml

View File

@ -1 +0,0 @@
receive.py

View File

@ -1,6 +0,0 @@
<component name="InspectionProjectProfileManager">
<settings>
<option name="USE_PROJECT_PROFILE" value="false" />
<version value="1.0" />
</settings>
</component>

View File

@ -1,7 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<project version="4">
<component name="Black">
<option name="sdkName" value="Python 3.12 (python4Lab)" />
</component>
<component name="ProjectRootManager" version="2" project-jdk-name="Python 3.9 (lab_4)" project-jdk-type="Python SDK" />
</project>

View File

@ -1,8 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<project version="4">
<component name="ProjectModuleManager">
<modules>
<module fileurl="file://$PROJECT_DIR$/.idea/python4Lab.iml" filepath="$PROJECT_DIR$/.idea/python4Lab.iml" />
</modules>
</component>
</project>

View File

@ -1,10 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<module type="PYTHON_MODULE" version="4">
<component name="NewModuleRootManager">
<content url="file://$MODULE_DIR$">
<excludeFolder url="file://$MODULE_DIR$/venv" />
</content>
<orderEntry type="jdk" jdkName="Python 3.9 (lab_4)" jdkType="Python SDK" />
<orderEntry type="sourceFolder" forTests="false" />
</component>
</module>

View File

@ -1,6 +0,0 @@
<?xml version="1.0" encoding="UTF-8"?>
<project version="4">
<component name="VcsDirectoryMappings">
<mapping directory="$PROJECT_DIR$/../../.." vcs="Git" />
</component>
</project>

View File

@ -1,20 +0,0 @@
import pika
import time
def process_message(ch, method, properties, body):
print(f"Получено сообщение: {body}")
time.sleep(3)
print("Сообщение успешно обработано")
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
result = channel.queue_declare(queue='', exclusive=True)
queue_name = result.method.queue
channel.queue_bind(exchange='Agreements', queue=queue_name)
channel.basic_consume(queue=queue_name, on_message_callback=process_message, auto_ack=True)
print('Ожидание сообщений...')
channel.start_consuming()

View File

@ -1,19 +0,0 @@
import pika
def process_message(ch, method, properties, body):
print(f"Получено сообщение: {body}")
print("Сообщение успешно обработано")
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
result = channel.queue_declare(queue='', exclusive=True)
queue_name = result.method.queue
channel.queue_bind(exchange='Agreements', queue=queue_name)
channel.basic_consume(queue=queue_name, on_message_callback=process_message, auto_ack=True)
print('Ожидание сообщений...')
channel.start_consuming()

View File

@ -1,19 +0,0 @@
import pika
import time
import random
collection = ["Application for Travel Agency", "Buying tickets", "Execution of the agreement", "Check-into a hotel"]
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='Agreements', exchange_type='fanout')
while True:
message = f"Message: {random.choice(collection)}"
channel.basic_publish(exchange='Agreements', routing_key='', body=message)
time.sleep(1)
connection.close()

View File

@ -1,160 +0,0 @@
# Byte-compiled / optimized / DLL files
__pycache__/
*.py[cod]
*$py.class
# C extensions
*.so
# Distribution / packaging
.Python
build/
develop-eggs/
dist/
downloads/
eggs/
.eggs/
lib/
lib64/
parts/
sdist/
var/
wheels/
share/python-wheels/
*.egg-info/
.installed.cfg
*.egg
MANIFEST
# PyInstaller
# Usually these files are written by a python script from a template
# before PyInstaller builds the exe, so as to inject date/other infos into it.
*.manifest
*.spec
# Installer logs
pip-log.txt
pip-delete-this-directory.txt
# Unit test / coverage reports
htmlcov/
.tox/
.nox/
.coverage
.coverage.*
.cache
nosetests.xml
coverage.xml
*.cover
*.py,cover
.hypothesis/
.pytest_cache/
cover/
# Translations
*.mo
*.pot
# Django stuff:
*.log
local_settings.py
db.sqlite3
db.sqlite3-journal
# Flask stuff:
instance/
.webassets-cache
# Scrapy stuff:
.scrapy
# Sphinx documentation
docs/_build/
# PyBuilder
.pybuilder/
target/
# Jupyter Notebook
.ipynb_checkpoints
# IPython
profile_default/
ipython_config.py
# pyenv
# For a library or package, you might want to ignore these files since the code is
# intended to run in multiple environments; otherwise, check them in:
# .python-version
# pipenv
# According to pypa/pipenv#598, it is recommended to include Pipfile.lock in version control.
# However, in case of collaboration, if having platform-specific dependencies or dependencies
# having no cross-platform support, pipenv may install dependencies that don't work, or not
# install all needed dependencies.
#Pipfile.lock
# poetry
# Similar to Pipfile.lock, it is generally recommended to include poetry.lock in version control.
# This is especially recommended for binary packages to ensure reproducibility, and is more
# commonly ignored for libraries.
# https://python-poetry.org/docs/basic-usage/#commit-your-poetrylock-file-to-version-control
#poetry.lock
# pdm
# Similar to Pipfile.lock, it is generally recommended to include pdm.lock in version control.
#pdm.lock
# pdm stores project-wide configurations in .pdm.toml, but it is recommended to not include it
# in version control.
# https://pdm.fming.dev/#use-with-ide
.pdm.toml
# PEP 582; used by e.g. github.com/David-OConnor/pyflow and github.com/pdm-project/pdm
__pypackages__/
# Celery stuff
celerybeat-schedule
celerybeat.pid
# SageMath parsed files
*.sage.py
# Environments
.env
.venv
env/
venv/
ENV/
env.bak/
venv.bak/
# Spyder project settings
.spyderproject
.spyproject
# Rope project settings
.ropeproject
# mkdocs documentation
/site
# mypy
.mypy_cache/
.dmypy.json
dmypy.json
# Pyre type checker
.pyre/
# pytype static type analyzer
.pytype/
# Cython debug symbols
cython_debug/
# PyCharm
# JetBrains specific template is maintained in a separate JetBrains.gitignore that can
# be found at https://github.com/github/gitignore/blob/main/Global/JetBrains.gitignore
# and can be added to the global gitignore or merged into this file. For a more nuclear
# option (not recommended) you can uncomment the following to ignore the entire idea folder.
#.idea/

View File

@ -1,116 +0,0 @@
# Отчет по лабораторной работе №4
Выполнил студент гр. ИСЭбд-41 Дунаев О.И.
## Прохождение tutorial
Установил rabbitMQ server, erlang и зашел в брокер под гостем по http://localhost:15672/#/
Туториал 1:
![](scrins/tut1.png)
![](scrins/send.png)
![](scrins/receive.png)
Туториал 2:
![](scrins/tut2.png)
![](scrins/newtask.png)
![](scrins/worker.png)
Туториал 3:
![](scrins/tut3.png)
![](scrins/emitlog.png)
![](scrins/receivelogs.png).
## Разработка демонстрационных приложений
Предметная область: Дополенительные соглашения и договора на заселение в отель Туристического агентства.
Разработа три приложения согласно предметной области.
1. Publisher
```py
import pika
import time
import random
collection = ["Application for Travel Agency", "Buying tickets", "Execution of the agreement", "Check-into a hotel"]
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='Agreements', exchange_type='fanout')
while True:
message = f"Message: {random.choice(collection)}"
channel.basic_publish(exchange='Agreements', routing_key='', body=message)
time.sleep(1)
connection.close()
```
2. Consumer 1.
```py
import pika
import time
def process_message(ch, method, properties, body):
print(f"Получено сообщение: {body}")
time.sleep(3)
print("Сообщение успешно обработано")
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
result = channel.queue_declare(queue='', exclusive=True)
queue_name = result.method.queue
channel.queue_bind(exchange='Agreements', queue=queue_name)
channel.basic_consume(queue=queue_name, on_message_callback=process_message, auto_ack=True)
print('Ожидание сообщений...')
channel.start_consuming()
```
3. Consumer 2.
```py
import pika
def process_message(ch, method, properties, body):
print(f"Получено сообщение: {body}")
print("Сообщение успешно обработано")
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
result = channel.queue_declare(queue='', exclusive=True)
queue_name = result.method.queue
channel.queue_bind(exchange='Agreements', queue=queue_name)
channel.basic_consume(queue=queue_name, on_message_callback=process_message, auto_ack=True)
print('Ожидание сообщений...')
channel.start_consuming()
```
## Результаты выполнения лабораторной работы
Результат отработки Consumer_1:
![](scrins/maintask1.png)
Результат отработки Consumer_2:
![](scrins/maintask2.png)
![](scrins/maintask_dop.png)
Вывод: Consumer_2 нагружает меньше памяти, чем Consumer_1 и принимает сообщения гораздо быстрее, тем самым не позволяя очереди накапливать огромное количество сообщений.

View File

@ -1,25 +0,0 @@
import pika, sys, os
def main():
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='DunaevLogs')
def callback(ch, method, properties, body):
print(f" [x] Получено сообщение: {body}")
channel.basic_consume(queue='DunaevLogs', on_message_callback=callback, auto_ack=True)
print(' [*] Ожидание сообщений. Для завершения CTRL+C')
channel.start_consuming()
if __name__ == '__main__':
try:
main()
except KeyboardInterrupt:
print('Произошла ошибка')
try:
sys.exit(0)
except SystemExit:
os._exit(0)

View File

@ -1,11 +0,0 @@
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
channel.queue_declare(queue='dunaev')
channel.basic_publish(exchange='',routing_key='dunaev',body='Hello, my name is Oleg, i am from ISEbd-41!')
print(" [x] Отправлено сообщение")
connection.close()

View File

@ -1,13 +0,0 @@
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='dunaev2', durable=True)
message = ' '.join(sys.argv[1:]) or "Hello, my name is Oleg, i am from ISEbd-41!"
channel.basic_publish(exchange='', routing_key='dunaev2', body=message, properties=pika.BasicProperties(
delivery_mode=pika.spec.PERSISTENT_DELIVERY_MODE))
print(f" [x] Отправлено {message}")
connection.close()

View File

@ -1,19 +0,0 @@
import pika
import time
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='dunaev2', durable=True)
print(' [*] Ожидание сообщений.')
def callback(ch, method, properties, body):
print(f" [x] Получено сообщение: {body.decode()}")
time.sleep(body.count(b'.'))
print(" [x] Выполнено")
ch.basic_ack(delivery_tag=method.delivery_tag)
channel.basic_qos(prefetch_count=1)
channel.basic_consume(queue='dunaev2', on_message_callback=callback)
channel.start_consuming()

View File

@ -1,12 +0,0 @@
import pika
import sys
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='DunaevLogs', exchange_type='fanout')
message = ' '.join(sys.argv[1:]) or "Info: Hello, my name is Oleg, i am from ISEbd-41!"
channel.basic_publish(exchange='DunaevLogs', routing_key='', body=message)
print(f" [x] Отправлено сообщение: {message}")
connection.close()

View File

@ -1,21 +0,0 @@
import pika
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.exchange_declare(exchange='DunaevLogs', exchange_type='fanout')
result = channel.queue_declare(queue='', exclusive=True)
queue_name = result.method.queue
channel.queue_bind(exchange='DunaevLogs', queue=queue_name)
print(' [*] Ожидание сообщений. Для завершения CTRL+C')
def callback(ch, method, properties, body):
print(f" [x] {body}")
channel.basic_consume(
queue=queue_name, on_message_callback=callback, auto_ack=True)
channel.start_consuming()

Binary file not shown.

Before

Width:  |  Height:  |  Size: 28 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 37 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 40 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 52 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 27 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 28 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 24 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 24 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 42 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 39 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 39 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 42 KiB

View File

@ -1,20 +0,0 @@
# Отчет по лабораторной работе №8
Выполнил студент гр. ИСЭбд-41 Дунаев О.И.
## Задачи
Написать небольшое эссе (буквально несколько абзацев) своими словами. А помогут Вам в этом вопросы из списка:
1. Зачем сложные системы (например, социальная сеть ВКонтакте) пишутся в "распределенном" стиле, где каждое отдельное приложение (или сервис) функционально выполняет только ограниченный спектр задач?
2. Для чего были созданы системы оркестрации приложений? Каким образом они упрощают / усложняют разработку и сопровождение распределенных систем?
3. Для чего нужны очереди обработки сообщений и что может подразумеваться под сообщениями?
4. Какие преимущества и недостатки распределенных приложений существуют на Ваш взгляд?
5. Целесообразно ли в сложную распределенную систему внедрять параллельные вычисления? Приведите примеры, когда это действительно нужно, а когда нет.
## Эссе
1.Каждое приложение функционально выполняет ограниченный спектр задач, что позволяет системе быть модульной и легко адаптируемой к изменениям в требованиях или технологиях. Это также снижает общую сложность системы, поскольку отдельные компоненты могут быть разработаны, протестированы и развернуты независимо друг от друга.
2.Системы оркестрации приложений были созданы для упрощения управления и координации распределенных систем. Они позволяют автоматизировать развертывание, масштабирование и мониторинг приложений, а также обеспечивают интеграцию различных сервисов и компонентов. В то же время, их использование может усложнить разработку и поддержку распределенных систем для менее опытных разработчиков, поскольку требует понимания и применения определенных инструментов и подходов.
3.Очереди обработки сообщений нужны для асинхронной коммуникации между компонентами распределенных систем и обеспечения их стабильной работы. Сообщениями могут быть любые данные, которые требуют обработки или передачи между различными частями приложения.
4.Распределенные приложения имеют преимущества, такие как масштабируемость, надежность и гибкость. Однако они также имеют и недостатки, такие как сложность в управлении и сопровождении, проблемы с согласованностью данных и необходимость в более сложной инфраструктуре.
5.Внедрение параллельных вычислений в сложную распределенную систему может быть целесообразным, если система должна обрабатывать большое количество данных или выполнять множество операций одновременно. Это может ускорить процесс обработки и повысить производительность. Однако это также может увеличить сложность системы и потребовать дополнительных усилий для обеспечения ее стабильности и согласованности. Примеры, когда параллельные вычисления действительно нужны, включают обработку больших объемов данных, анализ в реальном времени и игры с интенсивной графикой. В то время как для систем, которые выполняют менее сложные и ресурсоемкие операции, параллельные вычисления могут не потребоваться.

View File

@ -1,139 +0,0 @@
# Отчёт по лабораторной работе №1
Выполнил: студент гр. ИСЭбд-41, Дунаев О.И.
## Разворачивание сервиса Gitea
Содержимое файла `docker-compose.yml` в папке Gitea:
```yaml
version: "3"
networks:
gitea:
external: false
# Контейнер Gitea
services: # Описание служб
server:
image: gitea/gitea:1.20.4 # Образ gitea
container_name: gitea # Наименование контейнера
environment: # Наши параметры
- USER_UID=1000
- USER_GID=1000
- GITEA__database__DB_TYPE=mysql
- GITEA__database__HOST=db:3306
- GITEA__database__NAME=gitea
- GITEA__database__USER=gitea
- GITEA__database__PASSWD=gitea
restart: always
networks: # Параметры сети
- gitea
volumes: # Каталоги для хранения данных контейнера
- ./gitea:/data
- /etc/timezone:/etc/timezone:ro
- /etc/localtime:/etc/localtime:ro
ports: # Порт локальный и внутри сети
- "3000:3000"
- "222:22"
depends_on:
- db
# База данных
db:
image: mysql:8 # Образ БД и версия
restart: always # Параметр перезапуска
environment: # Подключаем каталог с базой данных
- MYSQL_ROOT_PASSWORD=gitea
- MYSQL_USER=gitea
- MYSQL_PASSWORD=gitea
- MYSQL_DATABASE=gitea
networks: # Параметры сети
- gitea
volumes: # Том для хранения данных БД
- ./mysql:/var/lib/mysql
```
Далее в командной строке разворачиваем сервис командой `docker-compose up -d`:
![](pic/1.png)
Переходим на http://localhost:222:
![](pic/2.png)
Регистрируемся и автоматически входим в учетную запись:
![](pic/3.png)
## Разворачивание сервиса Wordpress
Также в файл `docker-compose.yml` в папке Wordpress прописываем следующий код:
```yaml
version: '3.1'
services:
# Контейнер Wordpress
wordpress:
image: wordpress # Образ
restart: always # Параметр перезапуска
ports: # На каком порте запускаем
- 7071:80
environment: # Настройки БД WordPress для подключения
WORDPRESS_DB_HOST: database # Имя хоста БД MySQL
WORDPRESS_DB_USER: user # Имя пользователя БД
WORDPRESS_DB_PASSWORD: password # Пароль пользователя БД
WORDPRESS_DB_NAME: name_database # Имя БД
volumes: # Каталог хранения файлов WordPress
- wordpress:/var/www/html
# Контейнер MySQL
database:
image: mysql:5.7 # Образ и его версия
restart: always # Параметр перезапуска
environment: # Настройки БД для подключения
MYSQL_DATABASE: name_database
MYSQL_USER: user
MYSQL_PASSWORD: password
MYSQL_RANDOM_ROOT_PASSWORD: '12345'
volumes: # Каталог хранения данных БД
- database:/var/lib/mysql
volumes:
wordpress:
database:
```
Далее в командной строке разворачиваем сервис командой `docker-compose up -d`:
![](pic/4.png)
Открываем Docker Desktop и проверяем, что контейнер сервера БД и Wordpress созданы и запущены:
![](pic/5.png)
## Разворачивание сервиса Redmine
Также в файл `docker-compose.yml` в папке Redmine прописываем код:
```yaml
version: '3.1'
services:
# Контейнер Redmine
redmine:
image: redmine # Образ контейнера
restart: always
ports: # На какой порт запускать
- 8080:3000
environment:
REDMINE_DB_MYSQL: db
REDMINE_DB_PASSWORD: example
REDMINE_SECRET_KEY_BASE: supersecretkey
# Контейнер БД MySQL
db:
image: mysql:5.7 # Образ БД и ее версия
restart: always
environment: # Название и пароль админа БД
MYSQL_ROOT_PASSWORD: example
MYSQL_DATABASE: redmine
```
Далее в командной строке разворачиваем сервис командой `docker-compose up -d`:
![](pic/6.png)
Переходим на http://localhost:8080:
![](pic/7.png)
Регистрируемся и проверяем, что все работает:
![](pic/8.png)

Binary file not shown.

Before

Width:  |  Height:  |  Size: 44 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 84 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 42 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 29 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 75 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 40 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 15 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 153 KiB

View File

@ -1,38 +0,0 @@
# Отчет по лабораторной работе №5
Выполнил студент гр. ИСЭбд-41 Дунаев О.И.
## Создание приложения
Выбрал язык C#, Windows Forms.
Приложение имеет три текстовых поля, в которых можно через пробел вносить элементы матрицы. В матрицы-множители значения можно сгенерировать внутри программы. Размерность можно регулировать от 2 до 1000 в специальном поле. При необходимости можно очистить все матрицы. Также есть флажок выключения вывода значений матриц в текстовые поля, т.к. это занимает слишком много времени. Количество потоков в параллельном алгоритме регулируется в соответствующем поле.
Попробуем запустить обычный и паралелльный алгоритмы на матрицах 10х10 и зафиксировать результат выполнения по времени.
![](pic/1.png)
![](pic/2.png)
## Бенчмарки
Протестируем обычный и параллельный алгоритм матрицах 100х100, 300х300 и 500х500.
Сверху отображен результат обычного алгоритма, снизу паралелльного.
Матрицы 100х100
![](pic/3.png)
![](pic/4.png)
Матрицы 300х300
![](pic/5.png)
![](pic/6.png)
Матрицы 500х500
![](pic/7.png)
![](pic/8.png)
Вывод: Параллельный алгоритм работает быстрее только при наличии большого количества операций и данных. Если элементов не так много, то обычный алгоритм справляется быстрее. Также была обнаружено оптимальное количество потоков для лучшей работы обработки матриц 500х500 - 4 потока.

View File

@ -1,484 +0,0 @@
## Ignore Visual Studio temporary files, build results, and
## files generated by popular Visual Studio add-ons.
##
## Get latest from `dotnet new gitignore`
# dotenv files
.env
# User-specific files
*.rsuser
*.suo
*.user
*.userosscache
*.sln.docstates
# User-specific files (MonoDevelop/Xamarin Studio)
*.userprefs
# Mono auto generated files
mono_crash.*
# Build results
[Dd]ebug/
[Dd]ebugPublic/
[Rr]elease/
[Rr]eleases/
x64/
x86/
[Ww][Ii][Nn]32/
[Aa][Rr][Mm]/
[Aa][Rr][Mm]64/
bld/
[Bb]in/
[Oo]bj/
[Ll]og/
[Ll]ogs/
# Visual Studio 2015/2017 cache/options directory
.vs/
# Uncomment if you have tasks that create the project's static files in wwwroot
#wwwroot/
# Visual Studio 2017 auto generated files
Generated\ Files/
# MSTest test Results
[Tt]est[Rr]esult*/
[Bb]uild[Ll]og.*
# NUnit
*.VisualState.xml
TestResult.xml
nunit-*.xml
# Build Results of an ATL Project
[Dd]ebugPS/
[Rr]eleasePS/
dlldata.c
# Benchmark Results
BenchmarkDotNet.Artifacts/
# .NET
project.lock.json
project.fragment.lock.json
artifacts/
# Tye
.tye/
# ASP.NET Scaffolding
ScaffoldingReadMe.txt
# StyleCop
StyleCopReport.xml
# Files built by Visual Studio
*_i.c
*_p.c
*_h.h
*.ilk
*.meta
*.obj
*.iobj
*.pch
*.pdb
*.ipdb
*.pgc
*.pgd
*.rsp
*.sbr
*.tlb
*.tli
*.tlh
*.tmp
*.tmp_proj
*_wpftmp.csproj
*.log
*.tlog
*.vspscc
*.vssscc
.builds
*.pidb
*.svclog
*.scc
# Chutzpah Test files
_Chutzpah*
# Visual C++ cache files
ipch/
*.aps
*.ncb
*.opendb
*.opensdf
*.sdf
*.cachefile
*.VC.db
*.VC.VC.opendb
# Visual Studio profiler
*.psess
*.vsp
*.vspx
*.sap
# Visual Studio Trace Files
*.e2e
# TFS 2012 Local Workspace
$tf/
# Guidance Automation Toolkit
*.gpState
# ReSharper is a .NET coding add-in
_ReSharper*/
*.[Rr]e[Ss]harper
*.DotSettings.user
# TeamCity is a build add-in
_TeamCity*
# DotCover is a Code Coverage Tool
*.dotCover
# AxoCover is a Code Coverage Tool
.axoCover/*
!.axoCover/settings.json
# Coverlet is a free, cross platform Code Coverage Tool
coverage*.json
coverage*.xml
coverage*.info
# Visual Studio code coverage results
*.coverage
*.coveragexml
# NCrunch
_NCrunch_*
.*crunch*.local.xml
nCrunchTemp_*
# MightyMoose
*.mm.*
AutoTest.Net/
# Web workbench (sass)
.sass-cache/
# Installshield output folder
[Ee]xpress/
# DocProject is a documentation generator add-in
DocProject/buildhelp/
DocProject/Help/*.HxT
DocProject/Help/*.HxC
DocProject/Help/*.hhc
DocProject/Help/*.hhk
DocProject/Help/*.hhp
DocProject/Help/Html2
DocProject/Help/html
# Click-Once directory
publish/
# Publish Web Output
*.[Pp]ublish.xml
*.azurePubxml
# Note: Comment the next line if you want to checkin your web deploy settings,
# but database connection strings (with potential passwords) will be unencrypted
*.pubxml
*.publishproj
# Microsoft Azure Web App publish settings. Comment the next line if you want to
# checkin your Azure Web App publish settings, but sensitive information contained
# in these scripts will be unencrypted
PublishScripts/
# NuGet Packages
*.nupkg
# NuGet Symbol Packages
*.snupkg
# The packages folder can be ignored because of Package Restore
**/[Pp]ackages/*
# except build/, which is used as an MSBuild target.
!**/[Pp]ackages/build/
# Uncomment if necessary however generally it will be regenerated when needed
#!**/[Pp]ackages/repositories.config
# NuGet v3's project.json files produces more ignorable files
*.nuget.props
*.nuget.targets
# Microsoft Azure Build Output
csx/
*.build.csdef
# Microsoft Azure Emulator
ecf/
rcf/
# Windows Store app package directories and files
AppPackages/
BundleArtifacts/
Package.StoreAssociation.xml
_pkginfo.txt
*.appx
*.appxbundle
*.appxupload
# Visual Studio cache files
# files ending in .cache can be ignored
*.[Cc]ache
# but keep track of directories ending in .cache
!?*.[Cc]ache/
# Others
ClientBin/
~$*
*~
*.dbmdl
*.dbproj.schemaview
*.jfm
*.pfx
*.publishsettings
orleans.codegen.cs
# Including strong name files can present a security risk
# (https://github.com/github/gitignore/pull/2483#issue-259490424)
#*.snk
# Since there are multiple workflows, uncomment next line to ignore bower_components
# (https://github.com/github/gitignore/pull/1529#issuecomment-104372622)
#bower_components/
# RIA/Silverlight projects
Generated_Code/
# Backup & report files from converting an old project file
# to a newer Visual Studio version. Backup files are not needed,
# because we have git ;-)
_UpgradeReport_Files/
Backup*/
UpgradeLog*.XML
UpgradeLog*.htm
ServiceFabricBackup/
*.rptproj.bak
# SQL Server files
*.mdf
*.ldf
*.ndf
# Business Intelligence projects
*.rdl.data
*.bim.layout
*.bim_*.settings
*.rptproj.rsuser
*- [Bb]ackup.rdl
*- [Bb]ackup ([0-9]).rdl
*- [Bb]ackup ([0-9][0-9]).rdl
# Microsoft Fakes
FakesAssemblies/
# GhostDoc plugin setting file
*.GhostDoc.xml
# Node.js Tools for Visual Studio
.ntvs_analysis.dat
node_modules/
# Visual Studio 6 build log
*.plg
# Visual Studio 6 workspace options file
*.opt
# Visual Studio 6 auto-generated workspace file (contains which files were open etc.)
*.vbw
# Visual Studio 6 auto-generated project file (contains which files were open etc.)
*.vbp
# Visual Studio 6 workspace and project file (working project files containing files to include in project)
*.dsw
*.dsp
# Visual Studio 6 technical files
*.ncb
*.aps
# Visual Studio LightSwitch build output
**/*.HTMLClient/GeneratedArtifacts
**/*.DesktopClient/GeneratedArtifacts
**/*.DesktopClient/ModelManifest.xml
**/*.Server/GeneratedArtifacts
**/*.Server/ModelManifest.xml
_Pvt_Extensions
# Paket dependency manager
.paket/paket.exe
paket-files/
# FAKE - F# Make
.fake/
# CodeRush personal settings
.cr/personal
# Python Tools for Visual Studio (PTVS)
__pycache__/
*.pyc
# Cake - Uncomment if you are using it
# tools/**
# !tools/packages.config
# Tabs Studio
*.tss
# Telerik's JustMock configuration file
*.jmconfig
# BizTalk build output
*.btp.cs
*.btm.cs
*.odx.cs
*.xsd.cs
# OpenCover UI analysis results
OpenCover/
# Azure Stream Analytics local run output
ASALocalRun/
# MSBuild Binary and Structured Log
*.binlog
# NVidia Nsight GPU debugger configuration file
*.nvuser
# MFractors (Xamarin productivity tool) working folder
.mfractor/
# Local History for Visual Studio
.localhistory/
# Visual Studio History (VSHistory) files
.vshistory/
# BeatPulse healthcheck temp database
healthchecksdb
# Backup folder for Package Reference Convert tool in Visual Studio 2017
MigrationBackup/
# Ionide (cross platform F# VS Code tools) working folder
.ionide/
# Fody - auto-generated XML schema
FodyWeavers.xsd
# VS Code files for those working on multiple tools
.vscode/*
!.vscode/settings.json
!.vscode/tasks.json
!.vscode/launch.json
!.vscode/extensions.json
*.code-workspace
# Local History for Visual Studio Code
.history/
# Windows Installer files from build outputs
*.cab
*.msi
*.msix
*.msm
*.msp
# JetBrains Rider
*.sln.iml
.idea
##
## Visual studio for Mac
##
# globs
Makefile.in
*.userprefs
*.usertasks
config.make
config.status
aclocal.m4
install-sh
autom4te.cache/
*.tar.gz
tarballs/
test-results/
# Mac bundle stuff
*.dmg
*.app
# content below from: https://github.com/github/gitignore/blob/master/Global/macOS.gitignore
# General
.DS_Store
.AppleDouble
.LSOverride
# Icon must end with two \r
Icon
# Thumbnails
._*
# Files that might appear in the root of a volume
.DocumentRevisions-V100
.fseventsd
.Spotlight-V100
.TemporaryItems
.Trashes
.VolumeIcon.icns
.com.apple.timemachine.donotpresent
# Directories potentially created on remote AFP share
.AppleDB
.AppleDesktop
Network Trash Folder
Temporary Items
.apdisk
# content below from: https://github.com/github/gitignore/blob/master/Global/Windows.gitignore
# Windows thumbnail cache files
Thumbs.db
ehthumbs.db
ehthumbs_vista.db
# Dump file
*.stackdump
# Folder config file
[Dd]esktop.ini
# Recycle Bin used on file shares
$RECYCLE.BIN/
# Windows Installer files
*.cab
*.msi
*.msix
*.msm
*.msp
# Windows shortcuts
*.lnk
# Vim temporary swap files
*.swp

View File

@ -1,34 +0,0 @@
namespace RVIP_Lab5
{
public class Alg1
{
static int[,] MultiplyMatrices(int[,] matrix1, int[,] matrix2)
{
int rows1 = matrix1.GetLength(0);
int cols1 = matrix1.GetLength(1);
int cols2 = matrix2.GetLength(1);
int[,] result = new int[rows1, cols2];
for (int i = 0; i < rows1; i++)
{
for (int j = 0; j < cols2; j++)
{
for (int k = 0; k < cols1; k++)
{
result[i, j] += matrix1[i, k] * matrix2[k, j];
}
}
}
return result;
}
public int[,] Begin(int[,] matrix1, int[,] matrix2)
{
int[,] result = MultiplyMatrices(matrix1, matrix2);
return result;
}
}
}

View File

@ -1,50 +0,0 @@
namespace RVIP_Lab5
{
public class Alg2
{
public int[,] Begin(int[,] matrix1, int[,] matrix2, int numThreads)
{
int rowsA = matrix1.GetLength(0);
int columnsA = matrix1.GetLength(1);
int rowsB = matrix2.GetLength(0);
int columnsB = matrix2.GetLength(1);
int[,] resultMatrix = new int[rowsA, columnsB];
int rowsPerThread = rowsA / numThreads;
Thread[] threads = new Thread[numThreads];
for (int i = 0; i < numThreads; i++)
{
int startRow = i * rowsPerThread;
int endRow = (i == numThreads - 1) ? rowsA : startRow + rowsPerThread;
threads[i] = new Thread(() => MultiplyRows(startRow, endRow, matrix1, matrix2, resultMatrix));
threads[i].Start();
}
foreach (Thread thread in threads)
{
thread.Join();
}
return resultMatrix;
}
static void MultiplyRows(int startRow, int endRow, int[,] matrixA, int[,] matrixB, int[,] resultMatrix)
{
for (int i = startRow; i < endRow; i++)
{
for (int j = 0; j < matrixB.GetLength(1); j++)
{
int sum = 0;
for (int k = 0; k < matrixA.GetLength(1); k++)
{
sum += matrixA[i, k] * matrixB[k, j];
}
resultMatrix[i, j] = sum;
}
}
}
}
}

View File

@ -1,77 +0,0 @@
using System.Drawing;
namespace RVIP_Lab5
{
public class Controller
{
public string PrintResultMatrix(int[,] result)
{
string resultString = "";
for (int i = 0; i < result.GetLength(0); i++)
{
for (int j = 0; j < result.GetLength(1); j++)
{
resultString += result[i, j];
if (j != result.GetLength(1) - 1)
{
resultString += " ";
}
}
resultString += Environment.NewLine;
}
return resultString;
}
public int[,] GetMatrixFromTextbox(string inputText)
{
string[] lines = inputText.Split(Environment.NewLine);
int numRows = lines.Length;
int numCol = lines[0].Split(' ').Length;
int[,] matrix = new int[numRows, numCol];
for (int i = 0; i < numRows; i++)
{
string[] elements = lines[i].Split(' ');
for (int j = 0; j < numCol; j++)
{
matrix[i, j] = int.Parse(elements[j]);
}
}
return matrix;
}
public string GetTextFromFile(string filePath)
{
string text = "";
using (StreamReader sr = new StreamReader(filePath))
{
text = sr.ReadToEnd();
}
return text;
}
public int[,] GenerateNewMatrix(int count)
{
Random random = new Random();
int[,] matrix = new int[count, count];
for (int i = 0; i < count; i++)
{
for (int j = 0; j < count; j++)
{
matrix[i, j] = random.Next(1, 26);
}
}
return matrix;
}
}
}

View File

@ -1,262 +0,0 @@
namespace RVIP_Lab5
{
partial class Form1
{
/// <summary>
/// Required designer variable.
/// </summary>
private System.ComponentModel.IContainer components = null;
/// <summary>
/// Clean up any resources being used.
/// </summary>
/// <param name="disposing">true if managed resources should be disposed; otherwise, false.</param>
protected override void Dispose(bool disposing)
{
if (disposing && (components != null))
{
components.Dispose();
}
base.Dispose(disposing);
}
#region Windows Form Designer generated code
/// <summary>
/// Required method for Designer support - do not modify
/// the contents of this method with the code editor.
/// </summary>
private void InitializeComponent()
{
textBoxMatrix1 = new TextBox();
textBoxResult = new TextBox();
buttonAlg1 = new Button();
label1 = new Label();
textBoxMatrix2 = new TextBox();
label2 = new Label();
buttonAlg2 = new Button();
openFileDialog1 = new OpenFileDialog();
label3 = new Label();
labelResultTime = new Label();
label4 = new Label();
countStream = new NumericUpDown();
label5 = new Label();
genCountRowCol = new NumericUpDown();
button1 = new Button();
buttonGenerateMatrix2 = new Button();
buttonGenerateMatrix1 = new Button();
((System.ComponentModel.ISupportInitialize)countStream).BeginInit();
((System.ComponentModel.ISupportInitialize)genCountRowCol).BeginInit();
SuspendLayout();
//
// textBoxMatrix1
//
textBoxMatrix1.Location = new Point(12, 50);
textBoxMatrix1.Multiline = true;
textBoxMatrix1.Name = "textBoxMatrix1";
textBoxMatrix1.Size = new Size(258, 258);
textBoxMatrix1.TabIndex = 0;
//
// textBoxResult
//
textBoxResult.Location = new Point(768, 50);
textBoxResult.Multiline = true;
textBoxResult.Name = "textBoxResult";
textBoxResult.Size = new Size(258, 258);
textBoxResult.TabIndex = 1;
//
// buttonAlg1
//
buttonAlg1.Font = new Font("Segoe UI", 12F, FontStyle.Regular, GraphicsUnit.Point);
buttonAlg1.Location = new Point(1080, 60);
buttonAlg1.Name = "buttonAlg1";
buttonAlg1.Size = new Size(258, 40);
buttonAlg1.TabIndex = 2;
buttonAlg1.Text = "Обычный алгоритм";
buttonAlg1.UseVisualStyleBackColor = true;
buttonAlg1.Click += buttonAlg1_Click;
//
// label1
//
label1.AutoSize = true;
label1.BackColor = Color.Transparent;
label1.Font = new Font("Segoe UI", 72F, FontStyle.Regular, GraphicsUnit.Point);
label1.Location = new Point(276, 117);
label1.Name = "label1";
label1.Size = new Size(111, 128);
label1.TabIndex = 3;
label1.Text = "X";
//
// textBoxMatrix2
//
textBoxMatrix2.Location = new Point(378, 50);
textBoxMatrix2.Multiline = true;
textBoxMatrix2.Name = "textBoxMatrix2";
textBoxMatrix2.Size = new Size(258, 258);
textBoxMatrix2.TabIndex = 4;
//
// label2
//
label2.AutoSize = true;
label2.BackColor = Color.Transparent;
label2.Font = new Font("Segoe UI", 72F, FontStyle.Regular, GraphicsUnit.Point);
label2.Location = new Point(642, 117);
label2.Name = "label2";
label2.Size = new Size(120, 128);
label2.TabIndex = 5;
label2.Text = "=";
//
// buttonAlg2
//
buttonAlg2.Font = new Font("Segoe UI", 12F, FontStyle.Regular, GraphicsUnit.Point);
buttonAlg2.Location = new Point(1080, 117);
buttonAlg2.Name = "buttonAlg2";
buttonAlg2.Size = new Size(258, 39);
buttonAlg2.TabIndex = 8;
buttonAlg2.Text = "Паралелльный алгоритм";
buttonAlg2.UseVisualStyleBackColor = true;
buttonAlg2.Click += buttonAlg2_Click;
//
// openFileDialog1
//
openFileDialog1.FileName = "openFileDialog1";
//
// label3
//
label3.AutoSize = true;
label3.Font = new Font("Segoe UI", 15.75F, FontStyle.Regular, GraphicsUnit.Point);
label3.Location = new Point(574, 349);
label3.Name = "label3";
label3.Size = new Size(111, 30);
label3.TabIndex = 9;
label3.Text = "Результат:";
//
// labelResultTime
//
labelResultTime.AutoSize = true;
labelResultTime.Font = new Font("Segoe UI", 15.75F, FontStyle.Regular, GraphicsUnit.Point);
labelResultTime.Location = new Point(719, 349);
labelResultTime.Name = "labelResultTime";
labelResultTime.Size = new Size(0, 30);
labelResultTime.TabIndex = 10;
//
// label4
//
label4.AutoSize = true;
label4.Location = new Point(15, 394);
label4.Name = "label4";
label4.Size = new Size(123, 15);
label4.TabIndex = 12;
label4.Text = "Количество потоков:";
//
// countStream
//
countStream.Location = new Point(144, 392);
countStream.Maximum = new decimal(new int[] { 10, 0, 0, 0 });
countStream.Minimum = new decimal(new int[] { 1, 0, 0, 0 });
countStream.Name = "countStream";
countStream.Size = new Size(66, 23);
countStream.TabIndex = 13;
countStream.Value = new decimal(new int[] { 4, 0, 0, 0 });
//
// label5
//
label5.AutoSize = true;
label5.Location = new Point(15, 349);
label5.Name = "label5";
label5.Size = new Size(166, 15);
label5.TabIndex = 16;
label5.Text = "Размерность при генерации:";
//
// genCountRowCol
//
genCountRowCol.Location = new Point(187, 347);
genCountRowCol.Maximum = new decimal(new int[] { 1000, 0, 0, 0 });
genCountRowCol.Minimum = new decimal(new int[] { 2, 0, 0, 0 });
genCountRowCol.Name = "genCountRowCol";
genCountRowCol.Size = new Size(66, 23);
genCountRowCol.TabIndex = 17;
genCountRowCol.Value = new decimal(new int[] { 10, 0, 0, 0 });
//
// button1
//
button1.Font = new Font("Segoe UI", 12F, FontStyle.Regular, GraphicsUnit.Point);
button1.Location = new Point(1080, 171);
button1.Name = "button1";
button1.Size = new Size(258, 46);
button1.TabIndex = 22;
button1.Text = "Очистить матрицы";
button1.UseVisualStyleBackColor = true;
button1.Click += button1_Click;
//
// buttonGenerateMatrix2
//
buttonGenerateMatrix2.Location = new Point(447, 12);
buttonGenerateMatrix2.Name = "buttonGenerateMatrix2";
buttonGenerateMatrix2.Size = new Size(122, 32);
buttonGenerateMatrix2.TabIndex = 15;
buttonGenerateMatrix2.Text = "Сгенерировать";
buttonGenerateMatrix2.UseVisualStyleBackColor = true;
buttonGenerateMatrix2.Click += buttonGenerateMatrix2_Click;
//
// buttonGenerateMatrix1
//
buttonGenerateMatrix1.Location = new Point(75, 12);
buttonGenerateMatrix1.Name = "buttonGenerateMatrix1";
buttonGenerateMatrix1.Size = new Size(122, 32);
buttonGenerateMatrix1.TabIndex = 14;
buttonGenerateMatrix1.Text = "Сгенерировать";
buttonGenerateMatrix1.UseVisualStyleBackColor = true;
buttonGenerateMatrix1.Click += buttonGenerateMatrix1_Click;
//
// Form1
//
AutoScaleDimensions = new SizeF(7F, 15F);
AutoScaleMode = AutoScaleMode.Font;
ClientSize = new Size(1507, 446);
Controls.Add(button1);
Controls.Add(genCountRowCol);
Controls.Add(label5);
Controls.Add(buttonGenerateMatrix2);
Controls.Add(buttonGenerateMatrix1);
Controls.Add(countStream);
Controls.Add(label4);
Controls.Add(labelResultTime);
Controls.Add(label3);
Controls.Add(buttonAlg2);
Controls.Add(label2);
Controls.Add(textBoxMatrix2);
Controls.Add(label1);
Controls.Add(buttonAlg1);
Controls.Add(textBoxResult);
Controls.Add(textBoxMatrix1);
Name = "Form1";
Text = "Перемножение матриц: Дунаев О.И. ИСЭбд-41";
((System.ComponentModel.ISupportInitialize)countStream).EndInit();
((System.ComponentModel.ISupportInitialize)genCountRowCol).EndInit();
ResumeLayout(false);
PerformLayout();
}
#endregion
private TextBox textBoxMatrix1;
private TextBox textBoxResult;
private Button buttonAlg1;
private Label label1;
private TextBox textBoxMatrix2;
private Label label2;
private Button buttonAlg2;
private OpenFileDialog openFileDialog1;
private Label label3;
private Label labelResultTime;
private Label label4;
private NumericUpDown countStream;
private Label label5;
private NumericUpDown genCountRowCol;
private Button button1;
private Button buttonGenerateMatrix2;
private Button buttonGenerateMatrix1;
}
}

View File

@ -1,121 +0,0 @@
using System.Diagnostics;
namespace RVIP_Lab5
{
public partial class Form1 : Form
{
public Controller service;
public Alg1 Alg1;
public Alg2 Alg2;
public Stopwatch stopwatch;
public int[,] matrixA;
public int[,] matrixB;
public Form1()
{
InitializeComponent();
this.service = new Controller();
this.Alg1 = new Alg1();
this.Alg2 = new Alg2();
this.stopwatch = new Stopwatch();
}
private void buttonAlg1_Click(object sender, EventArgs e)
{
try
{
stopwatch.Start();
int[,] matrixResult = Alg1.Begin(matrixA, matrixB);
stopwatch.Stop();
labelResultTime.Text = "" + stopwatch.Elapsed;
textBoxResult.Text = service.PrintResultMatrix(matrixResult);
}
catch (Exception ex)
{
MessageBox.Show(ex.Message, "Îøèáêà", MessageBoxButtons.OK, MessageBoxIcon.Error);
}
stopwatch.Reset();
}
private void buttonAlg2_Click(object sender, EventArgs e)
{
try
{
stopwatch.Start();
int[,] matrixResult = Alg2.Begin(matrixA, matrixB, (int)countStream.Value);
stopwatch.Stop();
labelResultTime.Text = "" + stopwatch.Elapsed;
textBoxResult.Text = service.PrintResultMatrix(matrixResult);
}
catch (Exception ex)
{
MessageBox.Show(ex.Message, "Îøèáêà", MessageBoxButtons.OK, MessageBoxIcon.Error);
}
stopwatch.Reset();
}
private void buttonLoadMatrix1_Click(object sender, EventArgs e)
{
openFileDialog1.ShowDialog();
string filePath = openFileDialog1.FileName;
string result = service.GetTextFromFile(filePath);
textBoxMatrix1.Text = result;
matrixA = service.GetMatrixFromTextbox(result);
}
private void buttonLoadMatrix2_Click(object sender, EventArgs e)
{
openFileDialog1.ShowDialog();
string filePath = openFileDialog1.FileName;
string result = service.GetTextFromFile(filePath);
textBoxMatrix2.Text = result;
matrixB = service.GetMatrixFromTextbox(result);
}
private void buttonGenerateMatrix1_Click(object sender, EventArgs e)
{
matrixA = service.GenerateNewMatrix((int)genCountRowCol.Value);
textBoxMatrix1.Text = service.PrintResultMatrix(matrixA);
}
private void buttonGenerateMatrix2_Click(object sender, EventArgs e)
{
matrixB = service.GenerateNewMatrix((int)genCountRowCol.Value);
textBoxMatrix2.Text = service.PrintResultMatrix(matrixB);
}
private void button1_Click(object sender, EventArgs e)
{
textBoxMatrix1.Text = "";
textBoxMatrix2.Text = "";
textBoxResult.Text = "";
matrixA = null;
matrixB = null;
}
}
}

View File

@ -1,123 +0,0 @@
<?xml version="1.0" encoding="utf-8"?>
<root>
<!--
Microsoft ResX Schema
Version 2.0
The primary goals of this format is to allow a simple XML format
that is mostly human readable. The generation and parsing of the
various data types are done through the TypeConverter classes
associated with the data types.
Example:
... ado.net/XML headers & schema ...
<resheader name="resmimetype">text/microsoft-resx</resheader>
<resheader name="version">2.0</resheader>
<resheader name="reader">System.Resources.ResXResourceReader, System.Windows.Forms, ...</resheader>
<resheader name="writer">System.Resources.ResXResourceWriter, System.Windows.Forms, ...</resheader>
<data name="Name1"><value>this is my long string</value><comment>this is a comment</comment></data>
<data name="Color1" type="System.Drawing.Color, System.Drawing"">Blue</data>
<data name="Bitmap1" mimetype="application/x-microsoft.net.object.binary.base64">
<value>[base64 mime encoded serialized .NET Framework object]</value>
</data>
<data name="Icon1" type="System.Drawing.Icon, System.Drawing" mimetype="application/x-microsoft.net.object.bytearray.base64">
<value>[base64 mime encoded string representing a byte array form of the .NET Framework object]</value>
<comment>This is a comment</comment>
</data>
There are any number of "resheader" rows that contain simple
name/value pairs.
Each data row contains a name, and value. The row also contains a
type or mimetype. Type corresponds to a .NET class that support
text/value conversion through the TypeConverter architecture.
Classes that don't support this are serialized and stored with the
mimetype set.
The mimetype is used for serialized objects, and tells the
ResXResourceReader how to depersist the object. This is currently not
extensible. For a given mimetype the value must be set accordingly:
Note - application/x-microsoft.net.object.binary.base64 is the format
that the ResXResourceWriter will generate, however the reader can
read any of the formats listed below.
mimetype: application/x-microsoft.net.object.binary.base64
value : The object must be serialized with
: System.Runtime.Serialization.Formatters.Binary.BinaryFormatter
: and then encoded with base64 encoding.
mimetype: application/x-microsoft.net.object.soap.base64
value : The object must be serialized with
: System.Runtime.Serialization.Formatters.Soap.SoapFormatter
: and then encoded with base64 encoding.
mimetype: application/x-microsoft.net.object.bytearray.base64
value : The object must be serialized into a byte array
: using a System.ComponentModel.TypeConverter
: and then encoded with base64 encoding.
-->
<xsd:schema id="root" xmlns="" xmlns:xsd="http://www.w3.org/2001/XMLSchema" xmlns:msdata="urn:schemas-microsoft-com:xml-msdata">
<xsd:import namespace="http://www.w3.org/XML/1998/namespace" />
<xsd:element name="root" msdata:IsDataSet="true">
<xsd:complexType>
<xsd:choice maxOccurs="unbounded">
<xsd:element name="metadata">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="value" type="xsd:string" minOccurs="0" />
</xsd:sequence>
<xsd:attribute name="name" use="required" type="xsd:string" />
<xsd:attribute name="type" type="xsd:string" />
<xsd:attribute name="mimetype" type="xsd:string" />
<xsd:attribute ref="xml:space" />
</xsd:complexType>
</xsd:element>
<xsd:element name="assembly">
<xsd:complexType>
<xsd:attribute name="alias" type="xsd:string" />
<xsd:attribute name="name" type="xsd:string" />
</xsd:complexType>
</xsd:element>
<xsd:element name="data">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="value" type="xsd:string" minOccurs="0" msdata:Ordinal="1" />
<xsd:element name="comment" type="xsd:string" minOccurs="0" msdata:Ordinal="2" />
</xsd:sequence>
<xsd:attribute name="name" type="xsd:string" use="required" msdata:Ordinal="1" />
<xsd:attribute name="type" type="xsd:string" msdata:Ordinal="3" />
<xsd:attribute name="mimetype" type="xsd:string" msdata:Ordinal="4" />
<xsd:attribute ref="xml:space" />
</xsd:complexType>
</xsd:element>
<xsd:element name="resheader">
<xsd:complexType>
<xsd:sequence>
<xsd:element name="value" type="xsd:string" minOccurs="0" msdata:Ordinal="1" />
</xsd:sequence>
<xsd:attribute name="name" type="xsd:string" use="required" />
</xsd:complexType>
</xsd:element>
</xsd:choice>
</xsd:complexType>
</xsd:element>
</xsd:schema>
<resheader name="resmimetype">
<value>text/microsoft-resx</value>
</resheader>
<resheader name="version">
<value>2.0</value>
</resheader>
<resheader name="reader">
<value>System.Resources.ResXResourceReader, System.Windows.Forms, Version=4.0.0.0, Culture=neutral, PublicKeyToken=b77a5c561934e089</value>
</resheader>
<resheader name="writer">
<value>System.Resources.ResXResourceWriter, System.Windows.Forms, Version=4.0.0.0, Culture=neutral, PublicKeyToken=b77a5c561934e089</value>
</resheader>
<metadata name="openFileDialog1.TrayLocation" type="System.Drawing.Point, System.Drawing, Version=4.0.0.0, Culture=neutral, PublicKeyToken=b03f5f7f11d50a3a">
<value>7, 19</value>
</metadata>
</root>

View File

@ -1,17 +0,0 @@
namespace RVIP_Lab5
{
internal static class Program
{
/// <summary>
/// The main entry point for the application.
/// </summary>
[STAThread]
static void Main()
{
// To customize application configuration such as set high DPI settings or default font,
// see https://aka.ms/applicationconfiguration.
ApplicationConfiguration.Initialize();
Application.Run(new Form1());
}
}
}

View File

@ -1,11 +0,0 @@
<Project Sdk="Microsoft.NET.Sdk">
<PropertyGroup>
<OutputType>WinExe</OutputType>
<TargetFramework>net6.0-windows</TargetFramework>
<Nullable>enable</Nullable>
<UseWindowsForms>true</UseWindowsForms>
<ImplicitUsings>enable</ImplicitUsings>
</PropertyGroup>
</Project>

View File

@ -1,25 +0,0 @@

Microsoft Visual Studio Solution File, Format Version 12.00
# Visual Studio Version 17
VisualStudioVersion = 17.3.32811.315
MinimumVisualStudioVersion = 10.0.40219.1
Project("{FAE04EC0-301F-11D3-BF4B-00C04F79EFBC}") = "RVIP_Lab5", "RVIP_Lab5.csproj", "{1DB0461C-8F6E-4BE5-B697-09C4F10570BF}"
EndProject
Global
GlobalSection(SolutionConfigurationPlatforms) = preSolution
Debug|Any CPU = Debug|Any CPU
Release|Any CPU = Release|Any CPU
EndGlobalSection
GlobalSection(ProjectConfigurationPlatforms) = postSolution
{1DB0461C-8F6E-4BE5-B697-09C4F10570BF}.Debug|Any CPU.ActiveCfg = Debug|Any CPU
{1DB0461C-8F6E-4BE5-B697-09C4F10570BF}.Debug|Any CPU.Build.0 = Debug|Any CPU
{1DB0461C-8F6E-4BE5-B697-09C4F10570BF}.Release|Any CPU.ActiveCfg = Release|Any CPU
{1DB0461C-8F6E-4BE5-B697-09C4F10570BF}.Release|Any CPU.Build.0 = Release|Any CPU
EndGlobalSection
GlobalSection(SolutionProperties) = preSolution
HideSolutionNode = FALSE
EndGlobalSection
GlobalSection(ExtensibilityGlobals) = postSolution
SolutionGuid = {7B6008C5-2210-4BAA-B61A-F6C7D82930FA}
EndGlobalSection
EndGlobal

Binary file not shown.

Before

Width:  |  Height:  |  Size: 41 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 41 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 54 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 54 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 56 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 56 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 58 KiB

Some files were not shown because too many files have changed in this diff Show More