Компонентные технологии и разработка распределенного по. Асинхронные системы с резьбой

При обращении к асинхронному (также называемому неблокирующим) примитиву, процесс не приостанавливается.

Таким образом, после того как процесс вызывает примитив Send, операционная система возвращает процессу управление сразу после установки сообщения в очередь на передачу или после создания копии сообщения. Когда сообщение передано или скопировано в безопасное место для последующей передачи, передающий процесс прерывается и, таким образом, информируется о том, что буфером сообщения можно пользоваться снова.

Если копии сообщения не создается, то любые изменения сообщения, производимые передающим процессом уже после обращения к примитиву Send, но до отправки сообщения, являются рискованными.

Аналогично, после обращения к асинхронному примитиву Receive процесс продолжает работу. Когда сообщение прибывает, процесс информируется об этом событии путем прерывания или периодического опроса.

Асинхронные примитивы обеспечивают эффективное и гибкое обращение процессов к системе передачи сообщений.

Недостаток этого подхода заключается в том, что программы, использующие подобные примитивы, трудно тестировать и отлаживать.

События, которые зависят от времени и которые невозможно воспроизвести, могут стать источником трудноразрешимых проблем.

Альтернатива заключается в использовании синхронных или, как их еще называют, блокирующих примитивов.

При вызове синхронного примитива Send управление не возвращается передающему процессу до тех пор, пока сообщение не будет передано (ненадежное обслуживание), или до тех пор, пока не будет получено подтверждение о доставке сообщения (надежное обслуживание).

Блокирующий примитив Receive не возвратит управление, пока сообщение не окажется в выделенном для него буфере.

Уделенные вызовы процедур

Уделенный вызов процедуры (Remote Procedure Call, RPC) представляет собой вариант базовой модели передачи сообщения.

Сегодня уделенные вызовы процедур являются общим и широко применяемым методом инкапсуляции взаимодействия в распределенной системе. Суть этой техники состоит в том, чтобы позволить программам на разных машинах взаимодействовать друг с другом путем простого вызова процедур, как если бы они работали на одной машине.

Таким образом, механизм вызова процедур используется для доступа к услугам, предлагаемым удаленной машиной.

Популярность этого подхода связана со следующими преимуществами:

Вызов процедуры представляет собой широко распространенную и понятную абстракцию.

Уделенные вызовы процедур позволяют специфицировать удаленный интерфейс в виде множества именованных операций с объектами указанных типов. Таким образом, интерфейс может быть четко и ясно документирован, а в распределенной программе можно выполнить статический контроль типов.

Поскольку интерфейс стандартизован и точно определен, коммуникационная программа приложения может быть сгенерирована автоматически.

Поскольку интерфейс стандартизован и точно определен, разработчики могут написать клиентский и серверный модули, для перемещения которых на другие платформы и операционные системы потребуется лишь небольшая модификация исходного текста программы.

Механизм удаленного вызова процедур может рассматриваться как усовершенствованная система надежной синхронной передачи сообщений.

Общую архитектуру иллюстрирует рис. 17.11, б, а на рис. 17.13 показана более детальная схема. Вызывающая программа выполняет на своей машине обычный вызов процедуры с параметрами.

Например: CALL P(X. Y)

Здесь ♦ Р - имя процедуры;

♦ X - передаваемые аргументы;

♦ Y - возвращаемые значения. То, что на самом деле происходит удаленный вызов процедуры на какой-то другой машине, может быть прозрачным или непрозрачным для пользователя. Так называемый исполнитель процедуры Р, или стаб, должен быть включен в адресное пространство вызывающего процесса или динамически скомпонован во время вызова.

Стаб создает сообщение, идентифицирующее вызываемую процедуру и содержащее ее параметры. Затем он посылает это сообщение удаленной системе и ждет ответа.

Когда ответ получен, стаб возвращает управление вызвавшей ее программе и передает ей возвращаемые значения. На удаленной машине с вызываемой процедурой ассоциируется другой стаб.

Когда приходит сообщение, стаб исследует его и на основе полученных имени процедуры и параметров формирует обычное локальное обращение CALL P(X, Y).

То есть удаленная процедура вызывается локально, при этом выполняется стандартная передача параметров через стек.

Рис. 17.13. Механизм удаленного вызова процедур

Привязка клиента и сервера Привязка позволяет специфицировать отношения между удаленной процедурой и вызывающей ее программой. Привязка формируется после того, как два приложения установили логическое соединение и готовы обмениваться командами и данными.

Привязка может быть постоянной и непостоянной. При непостоянной привязке логическое соединение между двумя процессами устанавливается только на время удаленного вызова процедуры.

Как только удаленная процедура возвращает значения, соединение разрывается. Активное соединение потребляет ресурсы, так как обе стороны должны хранить информацию о его состоянии.

Использование временных соединений позволяет сберечь эти ресурсы. С другой стороны, на установку соединения требуется время и обмен служебными данными по сети, поэтому данный подход неприемлем для удаленных процедур, часто вызываемых одним и тем же процессом.

При постоянной привязке соединение, устанавливаемое для удаленного вызова процедуры, сохраняется и после того, как удаленная процедура возвращает управление.

Это соединение может использоваться для последующих удаленных вызовов процедуры. Если в течение определенного интервала соединение не используется, оно разрывается. Такая схема удобна для приложений, делающих много удаленных вызовов процедур.

В этом случае постоянная привязка позволяет делать вызовы и получать их результаты через одно и то же логическое соединение.

Управляемые выпрямители однофазного тока

Мостовой управляемый выпрямитель трехфазного тока

Работа тиристорных групп /, // в реверсивном преобразователе характеризуется попеременным использованием в них режимов вы­прямления и инвертирования. Различают два режима управления тиристорными группами - совместное и раздельное.

При совместном управлении отпирающие импуль­сы подаются на тиристоры как одной, так и другой групп во всех ре­жимах работы привода, задавая одной группе режим выпрямления, а другой - режим инвертирования. Углы управления щ, ац со­ответственно тиристорами групп I и /I связаны между собой услови­ем равенства средних значений напряжения и ал выпрямителя и ин­-


Синхронные системы импульсно-фазового управления

Синхронный принцип импульсно-фазового управления преобра­зователями является наиболее распространенным. Его характеризу­ет такая функциональная связь узлов СУ, предназначенных для по­лучения управляющих импульсов, при которой синхронизация управ­ляющих импульсов осуществляется напряжением сети переменного тока.

Сущность синхронного принципа построения СУ и функциональ­ное назначение ее узлов покажем на примере выполнения канала уп­равления одним тиристором преобразователя (рис. 6.36). В схему ка­нала входят генератор опорного напряжения ГОН, нуль-орган НО и усилитель-формирова­тель УФ отпирающих импульсов.

Синхронные системы управления многофазными преобразователя­ми могут быть выполнены по многоканальному и одноканальному способам.

В многоканальной системе управления (рис. 6.37) регулирование угла а осуществляется от общего управляю­щего напряжения при выполнении каждого канала по типу рис. 6.36.

Количество каналов равно числу тирис­торов в схеме преобразователя (так, в СУ трехфазного мостового управляемо­го выпрямителя число каналов равно шести). При соответствующей синхро низации фазосдвигающих устройств от сети переменного тока (фази-ровки) система формирует для тиристоров в фазах а, Ь, с управ­ляющие импульсы, симметричные относительно точек естественного отпирания (см. рис. 6.15, в), что требуется для работы схемы.



Многоканальный способ управления получил широкое распро­странение благодаря простоте выполнения СУ, унификации ее узлов, а также применимости для различного типа преобразователей. Вместе с тем в таких системах предъявляются повышенные требования к иден­тичности регулировочных характеристик фазосдвигающих устройств а = / г (%а) отдельных каналов во всем диапазоне изменения управляю­щего напряжения. Различие регулировочных характеристик приво­дит к отличию углов а по каналам управления тиристорами, асиммет­рии управляющих импульсов, что создает, например, в управляемых выпрямителях дополнительные низкочастотные пульсации выпрям­ленного напряжения.

В одноканальной системе управления регулиро­вание фазового сдвига управляющих импульсов производится по од­ному каналу с помощью общего фазосдвигающего устройства, импуль­сы которого затем распределяются по цепям формирования запускаю­щих импульсов для каждого из тиристоров преобразователя. Благода­ря применению общего фазосдвигающего устройства одноканальная система способна обеспечить самые высокие требования в отно­шении симметрии управляющих импульсов. Однако из-за усложне­ния системы управления, особенно для реверсивных преобразовате­лей и НПЧ, одноканальный способ построения СУ менее распростра­нен.

Асинхронные системы импульсно-фазового управления

В рассмотренных синхронных системах управления момент полу­чения управляющего импульса (т. е. угол управления а) отсчиты-вается от некоторой точки напряжения питающей сети (например, от момента его перехода через нуль). Такая синхронизация от напряжения питающей сети осуществляется посредством генератора опорного напряжения. Начало отсчета угла а либо совпадает с момен­том синхронизации, либо сдвинуто относительно него на некоторый постоянный фазовый угол.

В асинхронных системах управления связь во времени управляю­щих импульсов с соответствующими точками напряжения питающей гети играет вспомогательную роль, например служит для ограниче­ния минимальных и максимальных значений углов управления а. 2ами же управляющие импульсы получают без синхронизации узлов;истемы управления напряжением сети переменного тока. Фазосдви-гающее устройство, принципиально необходимое для синхронных систем, здесь отсутствует.


Ступенчатый метод регулирования переменного напряжения. Сту­пенчатый метод регулирования характеризуется ступенчатым изме­нением амплитуды (действующего значения) переменного напряжения, подводимого к нагрузке, без изменения формы его кривой. Этот ме­тод осуществляется с помощью трансформатора, выводы от вторич­ной обмотки которого через включенные встречно-параллельно тиристоры связаны с нагрузкой (рис. 6.55, а). Отпирание ти­ристоров происходит при переходе пере­менного напряжения через нуль (рис. 6.55, б, в). Регулирование мощности в на­грузке (например, с целью изменения тем­пературы печи в определенном диапазоне^ осуществляется системой управления, ко­торая производит избирательную подачу отпирающих импульсов на соответствую­щую пару включенных встречно-парал­лельно тиристоров. Сложная конструк­ция трансформатора, наличие большого количества тиристоров, а также невоз­можность плавного регулирования мощ­ности в нагрузке являются недостатками данного метода регулирования. Преиму­щества метода - отсутствие искажений в кривой потребляемого от сети тока, а также фазового сдвига тока относительно напряжения питающей сети (при чисто активной нагрузке).

Фазоступенчатый метод регулирования переменного напряжения. Фазоступенча­тый метод регулирования основывается на совместном использовании ступенчато­го и фазовых методов регулирования. Он реализуется по схеме с трансформатором на входе вида рис. 6.55, а. В зависимости от числа ступеней вторичного напряжения трансформатора и 2 (тиристорных пар) су­ществует двух-, трех-, четырех-и много­ступенчатое фазовое регулирование.

Сущность фазоступенчатого метода сво­дится к использованию фазового регули­рования для плавного изменения дейст­вующего значения напряжения на нагруз­ке в пределах каждой ступени выходного напряжения

Широтно-импульсный метод регулирования переменного напряже­ния на пониженной частоте. Широтно-импульсный метод регулирова­ния на пониженной частоте основывается на изменении числа периодов переменного напряжения, подво­димого к нагрузке. Для его реализа­ции требуется схема вида рис. 6.47, а или б, в. Диаграммы напряжений на рис. 6.58 иллюстрируют принцип ра­боты преобразователя переменного на­пряжения при данном методе регули­рования. Этот метод позволяет осуще­ствить регулирование мощности в на­грузке в диапазоне от и 2 Ш н до ну­ля. Его недостатком является при­сутствие гармонических в токе сети с частотами ниже 50 Гц, что обуслов­ливается импульсным характером потребления энергии от сети. Ука­занный недостаток в значительной степени ослабляется при питании от общей сети переменного тока группы из нескольких преобразова­телей, когда отсутствие потребления тока одним преобразователем ком­пенсируется потреблением тока дру­гими преобразователями.

Мне любопытно, что async ожидает встроенные функции потоковой передачи.

Все говорят, что async намного лучше в случае производительности, потому что он освобождает потоки, ожидающие ответа на длинный асинхронный вызов. Хорошо, я понял.

Но рассмотрим этот сценарий.

У меня есть async methodA, выполняющий операцию async в базе данных. Api базы данных предоставляет функцию BeginQuery и событие QueryCompleted. Я завернул их в задачу (с использованием TaskCompletionSource).

Мой вопрос заключается в том, что происходит под капотом между вызовом BeginQuery и срабатыванием QueryCompleted.

Я имею в виду - не нужно ли создавать какого-то рабочего, чтобы запустить это событие? На очень низком уровне должен быть некоторый синхронный цикл, который блокирует результат чтения нити с db.

Я полагаю, что любой асинхронный вызов должен генерировать поток, чтобы фактически обрабатывать ответ (возможно, дождаться его в цикле с низким уровнем С++ в коде драйвера).

Итак, наш единственный "выигрыш" заключается в том, что поток вызывающего может быть освобожден, когда какой-то другой поток выполняет свою работу.

При вызове асинхронного метода всегда создается новый рабочий поток?

Может ли кто-нибудь подтвердить мое понимание?

4 ответов

Все говорят, что async намного лучше в случае производительности, потому что он освобождает потоки, ожидающие ответа на длительный асинхронный вызов.

Да и нет. Точка за async - освободить вызывающий поток. В приложениях пользовательского интерфейса основным преимуществом async является отзывчивость, поскольку поток пользовательского интерфейса освобождается. В серверных приложениях основным преимуществом async является масштабируемость, поскольку поток запросов освобождается для обработки других запросов.

Таким образом, наш единственный "выигрыш" заключается в том, что поток вызывающего абонента может быть освобожден, когда какой-то другой поток выполняет свою работу. Всегда вызывает асинхронный метод создания нового рабочего потока?

Нет. На уровне ОС все операции ввода/вывода являются асинхронными. Это синхронные API-интерфейсы, которые блокируют поток, в то время как основной асинхронный ввод-вывод выполняется. Я недавно написал это в сообщении в блоге: .

Он создаст порт завершения ввода-вывода (IOCP), представляющий задачу, которая обрабатывается снаружи, и поток будет продолжаться с другими вещами. Затем, когда IOCP уведомляет о том, что задача выполнена, поток будет зависеть от состояния IOCP и продолжит выполнение задачи.

Порты ввода/вывода обеспечивают элегантное решение проблемы написание масштабируемых серверных приложений, использующих многопоточность и асинхронный ввод-вывод.

Я имею в виду - не нужно ли создавать какого-то рабочего, чтобы мероприятие? На очень низком уровне должен быть некоторый синхронный цикл, который блокировка результата чтения нити из db.

Даже когда вам действительно нужно ждать объекта ядра (например, ручное событие reset), вы все равно можете превратить блокирующий синхронный код в асинхронный и освободить поток от блокировки (обновлено: реальный сценарий).

Например, синхронный код:

Void Consume() { var completedMre = new ManualResetEvent(false); producer.StartOperation(completedMre); completedMre.WaitOne(); // blocking wait Console.WriteLine(producer.DequeueResult()); }

Асинхронный аналог:

Async Task ConsumeAsync() { var completedMre = new ManualResetEvent(false); producer.StartOperation(completedMre); var tcs = new TaskCompletionSource(); ThreadPool.RegisterWaitForSingleObject(completedMre, (s, t) => tcs.SetResult(producer.DequeueResult()), null, Timeout.Infinite, true); var result = await tcs.Task; Console.WriteLine(result); }

Асинхронная версия масштабируется более чем в 64 раза (MAXIMUM_WAIT_OBJECTS), что максимальное количество объектов ядра, которое может быть агрегировано RegisterWaitForSingleObject для ожидания в одном потоке). Таким образом, вы можете вызвать Consume() в 64 раза параллельно, и он будет блокировать 64 потока. Или вы можете вызвать ConsumeAsync в 64 раза и заблокировать только один поток.

Компьютер без процессора - разве такое возможно? А почему бы и нет! Ведь процессор выполняет множество различных функций, реализация которых может быть возложена и на другие устройства. Архитектура же процессорных вычислений построена таким образом, что большинство операций выполняет именно процессор. Следовательно, вся вычислительная мощь компьютера сосредоточена в процессоре, что ограничивает возможности конфигурирования под конкретные задачи. Кроме того, решения для ускорения процессорных вычислений все более усложняются - число функций, которые должен выполнять процессор, растет. В результате конструкция современных процессоров стала настолько сложной, что предъявляет слишком высокие требования к уровню разработок.

1. Синхронные вычисления

Все микрокомпьютеры со времен их создания состояли из процессора, памяти и периферийных устройств. Причем активной частью компьютера является именно процессор, а память и периферийные устройства только подчиняются его командам. Программы и данные хранятся в памяти. Периферийные устройства позволяют процессору общаться с внешним миром - здесь имеются в виду пользователи, другие компьютеры, жесткие диски и дополнительные устройства. Причем за один такт машинного времени процессор может обратиться только к одной ячейке памяти или к одному внешнему устройству. Процесс вычислений с помощью процессора организован в соответствии с изложенной ниже схемой.

  1. Процессор выставляет на шину адресов адрес необходимой ему ячейки памяти или порта внешнего устройства.
  2. Внешнее устройство или память должны выставить на шине данных свою информацию, которую запросил процессор.
  3. Процессор, считав информацию с шины данных, обрабатывает ее, записывая в память или во внешнее устройство. При этом опять выставляются соответствующие сигналы и происходит синхронизация процессора с другими элементами компьютера.

Выполнение одной команды в процессоре или обмен информацией между процессором и другими микросхемами должны закончиться за один системный такт - до следующего импульса тактового генератора. Таким образом, вся плата или ее отдельная часть, особо приближенная к процессору, синхронно и одновременно переходит из одного стабильного состояния в другое. Так протекает работа компьютера. Поскольку вычисления в нем синхронизируются сигналами тактовой частоты, такие вычисления мы будем называть синхронными.

Основной недостаток синхронных вычислений заключается в том, что очень многие активные элементы должны работать совместно, повинуясь сигналам тактового генератора. С увеличением частоты тактового генератора все труднее согласовывать работу процессора и его окружения. Собственно, поэтому современные процессоры выпускают на одной микросхеме или в форме специальных процессорных плат, но даже основная память работает на более низкой частоте. Для этого приходится использовать сложные системы предсказания переходов, кэширования информации и изобретать другие технические ухищрения. А если процессоров несколько и они обращаются к одной и той же памяти?

При такой организации вычислений просто необходимо интегрировать в процессор все необходимые функции, что еще более усложняет разработку следующих поколений микросхем. Синхронизация же процессора просто необходима из-за адресной организации памяти, при которой для извлечения каждого конкретного байта из памяти необходимо указать его адрес.

2. Безадресные асинхронные вычисления

Тем не менее для извлечения информации из памяти можно вообще отказаться от адресации. Для этого достаточно использовать другой способ организации данных, примерно такой же, как на жестких дисках, когда данные и программы представляют собой последовательность байтов с заголовком, которую договоримся называть пакетом. Вычислительная система, которая сможет обрабатывать пакеты, должна состоять минимум из четырех основных элементов:

  • коммутаторов, которые доставляют пакеты получателю;
  • вычислительных элементов, преобразующих пакеты по определенным правилам;
  • элементов памяти, которые хранят пакеты и выдают их по первому требованию;
  • периферийных устройств, обеспечивающих вычислительной системе интерфейс с внешним миром.

Коммутаторы осуществляют связь между всеми элементами системы. Они доставляют пакеты адресату, который указан в заголовке. Фактически, коммутаторы образуют сеть - коммутируемую среду, связывающую все элементы системы в единое целое. Причем физическая связь между коммутаторами и элементами может быть любой - вычислительная система может находиться в нескольких корпусах и работать как единое устройство. Никаких дополнительных усовершенствований для этого не требуется.

Вычислительные элементы разбирают пакеты, обрабатывают находящиеся в них данные и выдают результат в коммутируемую среду в виде других пакетов. Блок памяти управляет обработкой пакетов: по запросу посылает его в коммутируемую среду, сохраняет информацию из пришедших пакетов и выполняет другие операции по хранению и выдаче данных. Можно добавить и еще одно дополнительное устройство, которое будет хранить определенные данные и подставлять их в пакет. Такое устройство будет одновременно иметь черты блока памяти и вычислителя. Собственно, порты ввода-вывода, к которым подключаются внешние устройства, организованы аналогично блокам памяти и различаются только набором команд и адресацией.

Такая система не требует синхронизации всех элементов системы и распределяет функции процессора между несколькими вычислительными устройствами и блоками памяти. Поэтому будем называть такую систему асинхронной вычислительной системой. Каждый отдельный блок в ней выполняет свой ограниченный набор функций и поэтому может иметь простую внутреннюю структуру и работать достаточно быстро без синхронизации со всеми остальными блоками (собственно синхронизация выполняется через коммутируемую среду). Теперь рассмотрим каждый элемент асинхронной вычислительной системы более подробно.

2.1 Коммутаторы

Основная задача коммутаторов - доставить пакет получателю. Причем в случае, если получателей несколько, коммутаторы должны доставить пакет ближайшему из них. Механизмы поиска оптимального маршрута уже давно известны и отработаны в компьютерных сетях. Любой блок, вводя пакет в коммутируемую среду, должен указать только один параметр - адрес получателя. Никакой дополнительной информации не требуется.

В принципе, каналы связи между коммутаторами могут быть любыми, в том числе и выходить за пределы одного компьютера. В результате понятие компьютера "размывается", так как объединить два раздельных вычислительных блока в единое целое можно уже с помощью простого подключения коммутаторов одного устройства к коммутаторам другого. Правда, это возможно только в случае унифицированной системы адресации отдельных блоков системы.

Следует отметить, что если в вычислительной системе установлено несколько одинаковых вычислительных блоков, то пакет можно обработать в любом из них. Таким образом, коммутатор должен доставить пакет ближайшему свободному блоку. В результате все одинаковые вычислительные блоки могут иметь один адрес.

Однако с элементами памяти и портами этот фокус не проходит - даже одинаковые элементы памяти могут содержать разную информацию, и поэтому различаться. Это же относится и к портам внешних устройств. Собственно, если адреса портов и памяти могут меняться динамически самой коммутируемой средой, то исчезает проблема добавления нового блока памяти или внешнего устройства. Таким образом, асинхронная вычислительная система становится хорошо масштабируемой, и пределом служит только разрядность адреса. В результате, если выбрать однобайтный адрес, то количество подключенных устройств будет ограничено 256 правда, даже в этом случае можно будет добавлять те вычислительные блоки, адреса которых уже есть в системе.

Заметим, что все активные блоки - вычислителей, памяти и внешних устройств - лучше подключать по однонаправленным каналам. Это и упростит реализацию самих блоков, и уменьшит вероятность конфликтов на шине связи между блоком и коммутируемой средой. Адреса же имеют только выходы из среды. К сожалению, разделение ввода и вывода увеличивает число контактов на блоках, что затрудняет физическую разводку всей системы, но увеличивает ее скорость работы - двунаправленный ввод-вывод может существенно замедлить передачу пакетов через такие интерфейсы.

2.2 Память

Чтобы блоки памяти выполняли свои функции, они должны поддерживать два основных типа операций:

  • ввод в коммутируемую среду запрашиваемого пакета, возможно с подстановкой аргументов;
  • запись поступаемого из коммутируемой среды пакета в блок памяти.

Ввод пакета в коммутируемую среду необходим для запуска пакета-программы. Процесс вызова программ выглядит примерно следующим образом: в блок памяти поступает пакет с указанием имени вызываемого пакета и набором аргументов. Блок памяти ищет указанный пакет, подставляет в него аргументы и посылает модифицированный пакет в коммутируемую среду. Причем одним пакетом можно инициировать несколько различных пакетов. Следует отметить, что одним из аргументов может быть адрес получателя. В результате блок памяти "не знает", чем является инициируемый пакет - программой или данными.

Во время процедуры инициации пакета блок памяти может выполнить операцию подстановки аргументов. Эта операция необходима для модификации пакетов в блоках памяти для более гибкого составления пакетов и передачи информации между различными пакетами. В инициирующем пакете сразу после его имени содержится массив аргументов. Аргументы подставляются в места, помеченные специальной командой, состоящей из двух частей: собственно команды подстановки и номера аргумента, который подставляется вместо всей конструкции. Команда подстановки аргументов аналогична косвенной адресации. Однако функцию подстановки аргументов можно вынести из блока памяти и использовать дополнительный блок - обработчик процессов, хранящий только данные и включающий их в приходящие для него пакеты.

Запись в блок памяти достаточно очевидна - весь пакет со своим именем записывается в память. Кроме записи, блок памяти может выполнять и другие операции, например слияние пакетов, удаление или дополнение; но эти операции лучше вынести в обработчик процессов. Следует отметить, что асинхронные вычисления ориентированы на многопотоковые операции, поэтому необходимо определить соответствующий механизм блокировок, который контролировал бы конфликтные ситуации, когда два различных потока пытаются модифицировать одинаковые ячейки памяти. Поэтому в блоках памяти и обработчике потоков, видимо, необходимо предусмотреть соответствующие механизмы блокировок.

Когда блоков памяти несколько, возникает проблема поиска пакета в нескольких блоках памяти. Эту проблему можно решить, в частности, следующим образом: все блоки памяти знают друг о друге и пересылают запросы на инициацию пакета в другой блок памяти. Однако при попытке инициировать несуществующий пакет может возникнуть процесс циклического перебора всех блоков памяти, что чревато перегрузкой вычислительной системы. Но есть возможность реализовать другой способ поиска данных: регистрацией всех пакетов системы в одном месте - книге имен. Все операции с пакетами выполняются через эту книгу, а затем передаются в определенный блок памяти. Таким образом, в коммутируемой среде появляется больше пакетов, но гарантируется централизованное обращение к информации.

2.3 Периферийные устройства

Периферийные устройства: монитор, клавиатура, мышь и жесткий диск - имеются практически у всех современных компьютеров. Устройства, которые выполняют только операции ввода информации, могут не иметь своего адреса - они не должны получать пакетов. Таким образом, устройства ввода-вывода разделяются на два типа - имеющие свой адрес и не имеющие его. В результате у плат расширения, которые будут напрямую подключаться к коммутируемой среде, могут быть не один, а два или даже больше контактных разъемов.

Собственно, все внешние устройства современного компьютера могут быть адаптированы и к асинхронным вычислениям. Кроме того, в качестве внешнего устройства может рассматриваться и дополнительный коммутатор, через который подключаются дополнительные блоки и периферия. Таким образом, мощность компьютера можно наращивать практически до бесконечности (ограничением является только пространство адресов получателей пакетов).

В качестве примера работы вычислительной системы и периферии рассмотрим опрос клавиатуры. Допустим, он организован так, что контроллер клавиатуры знает только адрес блока памяти, где находится драйвер. Когда пользователь набирает команду и нажимает клавишу Enter, контроллер клавиатуры посылает в коммутируемую среду памяти пакет, который адресован соответствующему блоку памяти и содержит имя драйвера и команду. Блок памяти инициирует драйвер и пересылает его в соответствующий вычислитель, добавив к пакету команду в качестве аргумента. Следует отметить, что команда может обрабатываться на нескольких типах вычислителей, но начальный разбор команды в описанном сценарии выполняется только одним определенным устройством.

2.4 Вычислительные блоки

Вычислительные блоки обычно имеют один вход и один выход. Фактически вычислительный блок работает как фильтр, который преобразовывает пакеты по определенным правилам. Набор команд вычислителя может быть ограничен, что гарантирует простую внутреннюю структуру и достаточно большую скорость работы. Можно вообще каждую операцию реализовать в виде отдельного устройства, что может существенно ускорить вычисления, но если вычислителей будет слишком много, то могут возникать конфликтные ситуации в коммутируемой среде. В итоге вычислительная система может получиться плохо контролируемой.

Видимо, разумнее всего сделать один универсальный вычислительный блок, который выполняет основные арифметические операции с целыми числами, вплоть до логических с условной инициализацией пакетов. Кроме этого, сделать отдельный блок для вычислений над вещественными числами. В отдельные блоки есть возможность вынести и особо трудоемкие операции, которые можно ускорить с помощью аппаратной реализации. К таким операциям относятся, например, спектральный анализ (разложение в ряд Фурье), трехмерный рендеринг, криптография и другие дополнительные вычислительные блоки. Все перечисленные операции могут быть реализованы и с помощью универсального вычислителя с целыми числами, но спецвычислитель способен существенно ускорить работу всей системы. С помощью дополнительных вычислителей можно точнее настроить компьютер, чтобы его возможности соответствовали конкретной задаче.

Следует отметить, что системы команд различных вычислителей могут быть оптимально подобраны для решения отведенных им задач. Это упрощает как программу для таких устройств, так и внутреннюю структуру самого вычислителя. В результате программы и аппаратура будут более эффективно выполнять свои функции. Причем при добавлении нового вычислителя не нужно будет менять программное обеспечение - коммутаторы могут сами настроить систему для работы с новым блоком. Таким образом, асинхронные вычисления позволяют строить вычислительные системы, отличающиеся высокой масштабируемостью.

Заключение

Асинхронные вычисления имеют свои плюсы и минусы. Их основное достоинство - модульность полученной вычислительной системы, что позволяет точнее согласовать возможности аппаратного и программного обеспечения. Кроме того, изначальная ориентация на многопотоковые вычисления позволяет достигнуть небывалой для синхронных вычислений производительности.

В случае синхронных вычислений неиспользуемый компьютер все же выполняет какие-то минимальные действия. При асинхронных же вычислениях, при отсутствии собственно обрабатываемых пакетов, никаких процессов внутри вычислительной системы не происходит. Таким образом, если спроектировать каждый отдельный блок в асинхронном компьютере так, чтобы он выключался при отсутствии предназначенных для него пакетов и включался при получении первого пакета, то можно снизить потребление электроэнергии в неиспользуемом компьютере.

Асинхронные вычисления проще реализовать - нет необходимости синхронизировать все части вычислительной системы, а достаточно синхронизировать только канал связи между устройством и ближайшим коммутатором. Таким образом, реализовать их можно достаточно просто даже в российских условиях. Для этого необходимо разработать спецификацию команд всех основных блоков и соответствующую систему составления модульных процессоров, а также аппаратно реализовать все решения.