Автор Анна Евкова
Преподаватель который помогает студентам и школьникам в учёбе.

Концепции аппаратных решений

Содержание:

ВВЕДЕНИЕ

Учитывая прогрессивное развитие общества, информационных и аппаратных технологий, можно сказать, что информация постепенно превращается в ресурс, равноценный таким стратегическим ресурсам, как уже привычные материальные, временные, энергетические и другие ресурсы.

Закономерно, что в современном мире значительное влияние на успех индивида или какого-либо юридического лица оказывает степень владения навыками по получению, хранению, обработке и передаче информации и информационных ресурсов.

Тот факт, что мировое сообщество осознало роль информации как стратегический ресурс, стимулировал разработку новых информационных технологий для поиска и обработки большого объема данных, а также их хранения и возвращения пользователю. Так, на сегодняшний день наиболее распространенными являются сетевые информационные технологии.

Для того чтобы обеспечить бесперебойное и эффективное функционирование информационных технологий, необходимы постоянные улучшения и новые разработки в области аппаратных решений.

Таким образом, определяется цель исследования – изучение концепций аппаратных решений.

Для достижения поставленной цели необходимо выполнить следующие задачи:

  1. Рассмотреть понятие аппаратного решения;
  2. Привести концепции аппаратных решений;
  3. Проанализировать мультипроцессоры;
  4. Охарактеризовать мультикомпьютеры;
  5. Проанализировать гомогенные мультикомпьютерные системы;
  6. Рассмотреть гетерогенные мультикомпьютерные системы.

Объектом исследования выступают концепции аппаратных решений.

Теоретической базой исследования будут выступать работы таких исследователей проблемы, как Олифер В. Г., Олифер Н. А., Моримото Р., Ноэл М. и Сосински Б.

Структура работы состоит из двух глав, первая из которых включает два параграфа, а вторая – четыре. Кроме того, включены такие структурные элементы, как Содержание, Введение, Заключение и Список использованных источников.

1.Понятие концепций аппаратных решений

1.1.Понятие аппаратного решения

Сервер является компьютером, предназначенным для решения некоторого определенного перечня задач, среди которых – выполнение программных кодов, хранение информации и обслуживание пользователей и баз данных. Для осуществления эффективного функционирования данного списка задач применяется услуга Colocation, которая позволяет размещать сервера на специализированной оборудованной площадке с круглосуточной технической поддержкой, называемой Дата-Центром.

Благодаря серверу обеспечивается максимальная защищенность и безопасность выполняемых задач, а также их целостность. Сервер используется для реализации таких задач, как хранение файлов и веб-сайтов пользователей Интернета (хостинг), ответ на запросы и выдачи запрашиваемой информации, обработка и выполнение скриптов на веб-сайтах, работа с базой данных и большим количеством пользователей. Контроль над работой сервера возлагается на системного администратора[1].

Вопреки расхожему мнению, сервер далеко не обязательно должен быть применен для работы с сетью Интернет. Наиболее часто данная технология применяется в организациях для обеспечения целостности и эффективности работы локальных сетей и хранения информации в базах данных и информационных системах. При помощи сервера системным администратором может быть получена информация обо всех рабочих станциях и компьютерах, входящих в локальную сеть, может быть реализовано управление правами для авторизации и конфигурации системы.

В большинстве случаев сервер не является обычным персональным компьютером. Как правило, это рабочая станция, выполненная в виде мини-башни, хотя существуют различные конфигурации в зависимости от специализации. Серверы содержат один или несколько высокопроизводительных процессоров, большой объем оперативной памяти, RAID-массивы жестких дисков, блоки питания с возможностью автономного функционирования в случае сбоя электроэнергии. Корпус серверов имеет повышенную защиту от пыли и мощную систему охлаждения, а также защиту от случайного выключения.

Как правило, серверы расположены в отдельных помещениях. Данные помещения должны хорошо проветриваться и обеспечиваться поддержанием постоянной оптимальной температурой воздуха. Такие помещения называют серверными комнатами. Доступ в такие комнаты обычно имеют представители системной администрации или высшего менеджмента[2].

Крайней степенью специализации серверов выступают так называемые аппаратные решения (например, аппаратные роутеры, сетевые дисковые массивы, аппаратные терминалы и т. п.). Аппаратное обеспечение таких решений строится «с нуля» или перерабатывается из существующей компьютерной платформы без учёта совместимости, что делает невозможным использование устройства со стандартным программным обеспечением.

Программное обеспечение в аппаратных решениях загружается в постоянную и/или энергонезависимую память производителем.

Принято считать, что аппаратные решения являются более надежными в работе, чем серверы, но при этом они, как правило, менее гибкими и универсальными. В стоимостном отношении аппаратные решения могут выступать и как более доступные аналоги серверов, и как более дорогие. Все зависит от класса оборудования[3].

Приведение концепций аппаратных решений

Несмотря на то, что все распределенные информационные системы содержат по нескольку процессоров, существуют различные способы их организации в систему. В особенности это относится к вариантам их соединения и организации взаимного обмена.

Для простоты, все компьютеры в РИС можно разделить на две группы:

  1. Системы, в которых компьютеры используют совместно одну память, называются мультипроцессорами.
  2. Системы, в которых компьютеры работают каждый со своей памятью – мультикомпьютерами.

Основная разница между ними:

  • мультипроцессоры имеют единое адресное пространство, которое используется всеми процессорами;
  • в мультикомпьютерах каждая машина использует свою память (пример, обычная сеть компьютеров)[4].

Каждую из этих категорий можно подразделить на дополнительные категории на основе их физической топологии, например, шинная и коммутируемая (например, звезда и др.).

Мультикомпьютерные системы разделяют также на:

  • гомогенные (homogeneous);
  • и гетерогенные (heterogeneous).

В гомогенных используется одна компьютерная сеть, использующая:

  • единую технологию,
  • однотипные процессоры.

Такие системы часто используются в качестве параллельных компьютерных систем (как и мультипроцессорные). Пример –кластеры рабочих станций.

Гетерогенные системы содержат независимые компьютеры, соединенные разными сетями (например, могут состоять из нескольких локальных сетей, соединенных коммутируемой магистралью FDDI или ATM)[5].

2.Анализ концепций аппаратных решений

2.1 Мультипроцессоры

Мультипроцессорные системы обладают одной характерной особенностью: все процессоры имеют прямой доступ к общей памяти. Мультипроцессорные системы шинной архитектуры состоят из некоторого количества процессоров, подсоединенных к общей шине, а через нее — к модулям памяти. Простейшая конфигурация содержит плату с шиной или материнскую плату, в которую вставляются процессоры и модули памяти.

Поскольку используется единая память, когда процессор А записывает слово в память, а процессор В микросекундой позже считывает слово из памяти, процессор В получает информацию, записанную в память процессором А. Память, обладающая таким поведением, называется согласованной (coherent). Проблема такой схемы состоит в том, что в случае уже 4 или 5 процессоров шина оказывается стабильно перегруженной и производительность резко падает. Решение состоит в размещении между процессором и шиной высокоскоростной кэш-памяти (cache memory), как показано на рисунке 1. В кэше сохраняются данные, обращение к которым происходит наиболее часто. Все запросы к памяти происходят через кэш. Если запрошенные данные находятся в кэш-памяти, то на запрос процессора реагирует она и обращения к шине не выполняются. Если размер кэш-памяти достаточно велик, вероятность успеха, называемая также коэффициентом кэш-попаданий (hit rate), велика и шинный трафик в расчете на один процессор резко уменьшается, позволяя включить в систему значительно больше процессоров. Общепринятыми являются размеры кэша от 512 Кбайт до 1 Мбайт, коэффициент кэш-попаданий при этом обычно составляет 90 % и более[6].

http://old.mkgt.ru/lib/sp230103/rsoi/intr/M1/images/r1_05.gif

Рисунок 1 Архитектура мультипроцессора

Однако введение кэша создает серьезные проблемы само по себе. Предположим, что два процессора, А и В, читают одно и то же слово в свой внутренний кэш. Затем А перезаписывает это слово. Когда процессор В в следующий раз захочет воспользоваться этим словом, он считает старое значение из своего кэша, а не новое значение, записанное процессором А. Память стала несогласованной, и программирование системы осложнилось. Кэширование, тем не менее, активно используется в распределенных системах, и здесь мы вновь сталкиваемся с проблемами несогласованной памяти[7].

Проблема мультипроцессорных систем шинной архитектуры состоит в их ограниченной масштабируемости, даже в случае использования кэша. Для построения мультипроцессорной системы с более чем 256 процессорами для соединения процессоров с памятью необходимы другие методы. Один из вариантов — разделить общую память на модули и связать их с процессорами через коммутирующую решетку (crossbar switch), как показано на рисунке 2. Как видно из рисунка, с ее помощью каждый процессор может быть связан с любым модулем памяти. Каждое пересечение представляет собой маленький электронный узловой коммутатор (crosspoint switch), который может открываться и закрываться аппаратно[8].

Когда процессор желает получить доступ к конкретному модулю памяти, соединяющие их узловые коммутаторы мгновенно открываются, организуя запрошенный доступ. Достоинство узловых коммутаторов в том, что к памяти могут одновременно обращаться несколько процессоров, хотя если два процессора одновременно хотят получить доступ к одному и тому же участку памяти, то одному из них придется подождать.

http://old.mkgt.ru/lib/sp230103/rsoi/intr/M1/images/r1_06.gif

Рисунок 2 Схемы коммутаторов

Недостатком коммутирующей решетки является то, что при наличии n процессоров и n модулей памяти нам потребуется n2 узловых коммутаторов. Для больших значений n это число может превысить наши возможности. Обнаружив это, человечество стало искать и нашло альтернативные коммутирующие сети, требующие меньшего количества коммутаторов. Один из примеров таких сетей — омегасеть (omega network), представленная на рис. 2. Эта сеть содержит четыре коммутатора 2x2, то есть каждый из них имеет по два входа и два выхода. Каждый коммутатор может соединять любой вход с любым выходом. Если внимательно изучить возможные положения коммутаторов, становится ясно, что любой процессор может получить доступ к любому блоку памяти. Недостаток коммутирующих сетей состоит в том, что сигнал, идущий от процессора к памяти или обратно, вынужден проходить через несколько коммутаторов. Поэтому, чтобы снизить задержки между процессором и памятью, коммутаторы должны иметь очень высокое быстродействие, а дешево это не дается[9].

Люди пытаются уменьшить затраты на коммутацию путем перехода к иерархическим системам. В этом случае с каждым процессором ассоциируется некоторая область памяти. Каждый процессор может быстро получить доступ к своей области памяти. Доступ к другой области памяти происходит значительно медленнее. Эта идея была реализована в машине с неунифицированным доступом к памяти (NonUniform Memory Access, NUMA). Хотя машины NUMA имеют лучшее среднее время доступа к памяти, чем машины на базе омегасетей, у них есть свои проблемы, связанные с тем, что размещение программ и данных необходимо производить так, чтобы большая часть обращений шла к локальной памяти.

Системы NUMA состоят из однородных базовых узлов, содержащих небольшое число процессоров с модулями основной памяти[10].

Практически все архитектуры ЦПУ используют небольшое количество очень быстрой неразделяемой памяти, известной как кеш, который ускоряет обращение к часто требуемым данным. В NUMA поддержка когерентности через разделяемую память даёт существенное преимущество в производительности.

Хотя системы с некогерентным доступом к NUMA проще проектировать и создавать, становится предельно сложно создавать программы в классической модели архитектуры фон Неймана. В результате, все продаваемые NUMA-компьютеры используют специальные аппаратные решения для достижения когерентности кеша, и классифицируются как кеш-когерентные системы с распределенной разделяемой памятью, или ccNUMA[11].

Как правило, существует межпроцессорное взаимодействие между контроллерами кеша для сохранения согласованной картины памяти (когерентность памяти), когда более чем один кеш хранит одну и ту же ячейку памяти. Именно поэтому, ccNUMA платформы теряют в производительности, когда несколько процессоров подряд пытаются получить доступ к одному блоку памяти. Операционная система, поддерживающая NUMA, пытается уменьшить частоту доступа такого типа путём перераспределения процессоров и памяти таким способом, чтобы избежать гонок и блокировки.

Примером многопроцессорных машин с архитектурой ccNUMA может являться серия машин компании Silicon Graphics SGI Origin 2000. Суперкомпьютер ASCI Blue Mountain — один из самых мощных суперкомпьютеров 1999 года — представлял собой массово-параллельный кластер из 48 машин SGI Origin 2000 по 128 процессоров в каждой[12]

ASCI Blue Mountain — суперкомпьютер, установленный в Лос-Аламосской национальной лаборатории в 1998 году в рамках программы Accelerated Strategic Computing Initiative — программе Правительства США по развитию суперкомпьютерных технологий, призванных следить за состоянием ядерного арсенала США после объявления в октябре 1992 года моратория на проведение ядерных испытаний.

Остановлен 8 ноября 2004 года и заменен на суперкомпьютер ASCI Q.

ASCI Blue Mountain являлся одним из двух компьютеров «ASCI Blue», которые должны были стать вторым этапом в программе ASCI, в котором требовалось достичь вычислительной мощности в 3 Тфлопс. Контракт на создание ASCI Blue Mountain для Лос-Аламосской лаборатории был отдан компании Silicon Graphics в мае 1996 года, которая незадолго до этого поглотила суперкомпьютерную компанию Cray Research. Система была полностью собрана и запущена в Лаборатории в октябре 1998 года и показала на тесте LINPACK производительность в 1.6 Тфлопс, что позволило суперкомпьютеру занять второе место в списке TOP500 в июне 1999 года[13]

ASCI Blue Mountain был построен на основе вычислительного комплекса SGI Origin 2000. 48 комплексов содержали 6.144 RISC-процессора MIPS R10000 с тактовой частотой 250 МГц. Каждый комплекс состоял из 8 стоек и содержал 128 процессоров. Комплекс использовал архитектуру ccNUMA, в которой каждый процессор суперкомпьютера видел всю распределенную память как единое адресное пространство. Вычислительные узлы занимали 384 стоек, плюс к ним дополнительно 48 стоек — для проприетарных роутеров сети передачи данных HIPPI, связывавших 8 стоек каждого комплекса в единый кластер с топологией fat hypercube.

Предполагаемые характеристики компьютера:

Объем оперативной памяти: 1.5 Тб

Объем дисковых накопителей: 75 Тб

Операционная система: Irix

Общее энергопотребление: 1,6 МВт

Теоретическая производительность суперкомпьютера составляла 3,072 Тфлопс[14]

Мультикомпьютеры

Мультикомпьютеры (многопроцессорные системы с распределенной памятью) уже не обеспечивают общего доступа ко всей имеющейся в системах памяти ( no-remote memory access или NORMA ) (см. рисунок 3). При всей схожести подобной архитектуры с системами с распределенной общей памятью, мультикомпьютеры имеют принципиальное отличие: каждый процессор системы может использовать только свою локальную память, в то время как для доступа к данным, располагаемым на других процессорах, необходимо явно выполнить операции передачи сообщений (message passing operations). Данный подход применяется при построении двух важных типов многопроцессорных вычислительных систем – и массивно-параллельных систем ( massively parallel processor или MPP ) и кластеров (clusters). Среди представителей первого типа систем — IBM RS/6000 SP2, Intel PARAGON, ASCI Red, транспьютерные системы Parsytec и др.; примерами кластеров являются, например, системы AC3 Velocity и NCSA NT Supercluster[15].

Архитектура многопроцессорных систем с распределенной памятью

Рисунок 3 Архитектура многопроцессорных систем с распределенной памятью

Следует отметить чрезвычайно быстрое развитие многопроцессорных вычислительных систем кластерного типа – общая характеристика данного подхода приведена, например, в обзоре.

Под кластером обычно понимается множество отдельных компьютеров, объединенных в сеть, для которых при помощи специальных аппаратно-программных средств обеспечивается возможность унифицированного управления (single system image), надежного функционирования (availability) и эффективного использования (performance)[16].

Кластеры могут быть образованы на базе уже существующих у потребителей отдельных компьютеров либо же сконструированы из типовых компьютерных элементов, что обычно не требует значительных финансовых затрат. Применение кластеров может также в некоторой степени устранить проблемы, связанные с разработкой параллельных алгоритмов и программ, поскольку повышение вычислительной мощности отдельных процессоров позволяет строить кластеры из сравнительно небольшого количества (несколько десятков) отдельных компьютеров (lowly parallel processing).

Тем самым, для параллельного выполнения в алгоритмах решения вычислительных задач достаточно выделять только крупные независимые части расчетов (coarse granularity), что, в свою очередь, снижает сложность построения параллельных методов вычислений и уменьшает потоки передаваемых данных между компьютерами кластера. Вместе с этим следует отметить, что организация взаимодействия вычислительных узлов кластера при помощи передачи сообщений обычно приводит к значительным временным задержкам, и это накладывает дополнительные ограничения на тип разрабатываемых параллельных алгоритмов и программ[17].

Отдельные исследователи обращают особое внимание на отличие понятия кластера от сети компьютеров (network of workstations или NOW ). Для построения локальной компьютерной сети, как правило, используют более простые сети передачи данных (порядка 100 Мбит/сек). Компьютеры сети обычно более рассредоточены, и пользователи могут применять их для выполнения каких-либо дополнительных работ.

Мультикомпьютеры представляют собой машины для передачи сообщений, которые применяют метод пакетной коммутации для обмена данными. При этом каждый процессор имеет собственную память, но не имеет глобального адресного пространства, то есть процессор не может получить доступ только к своей локальной памяти. Таким образом, связь не является прозрачной: здесь программисты должны поместить явные примитивы связи в коде[18].

Отсутсвие глобально доступной памяти является недостатком мультикомпьютеров. Эту проблему можно решить с помощью следующих двух схем:

  • Виртуальная Совместно используемая память (VSM)
  • Общая виртуальная память (SVM)

В этих схемах предлагается большая общая память, которая адресуется по всему миру.

Виртуальная Совместно используемая память (VSM)

VSM реализуется аппаратно. Таким образом, системы виртуальной памяти операционной системы прозрачно реализованы в VSM. Таким образом, операционная система считает, что работает на машине с общей памятью[19].

Общая виртуальная память (SVM)

SVM реализуется программно на уровне операционной системы с аппаратной поддержкой со стороны блока управления памятью (MMU) процессора. При этом блок разделения работает на страницах памяти системы.

Если процессор устраняет конкретную ячейку памяти, то MMU определяет, является ли страница памяти, связанная с доступом к памяти, находящейся в локальной памяти или нет. Если страница не находится в памяти, в обычной компьютерной системе она выгружается с диска операционной системой. Но, в SVM, операционная система извлекает страницу с удаленного узла, который является владельцем этой конкретной страницы[20].

Поколения мультикомпьютеров:

Первое поколение

При выборе технологии выбираются недорогие процессоры среднего звена в качестве строительных блоков. Большинство параллельных компьютеров построены по стандартам микропроцессоров. Каждый процессор имеет свой собственный блок локальной памяти.

Что касается схемы межсоединений, мультикомпьютеры обладают сообщениями согласно схеме точка-точка. Для стратегии управления избираются асинхронные операции MIMD, MPMD и SMPD. Caltech Космический Куб (Seitz, 1983) является первым из первого поколения мультикомпьютеров.

Поколение настоящего и будущего

Компьютеры следующего поколения эволюционировали от средних. Мультикомпьютеры с использованием глобальной общей виртуальной памяти. Второе поколение мультикомпьютеров все еще используется в настоящее время. Несмотря на это, разработки продолжаются.

ЭВМ третьего поколения являются следующим поколением компьютеров, где будут использоваться VLSI реализованные узлы[21].

Система Intel Paragon

Ранее однородные узлы были использованы для изготовления гиперкуба Мультикомпьютеров, так как все функции были переданы хозяину. Таким образом, это ограничивает пропускную способность ввода/вывода. Таким образом, чтобы эффективно или с высокой пропускной способностью решать крупномасштабные задачи, эти компьютеры не могут применяться. The Intel Paragon System была разработана, чтобы преодолеть эту трудность. Он превратил мультикомпьютер в сервер приложений с многопользовательским доступом в сетевой среде[22].

Гомогенные мультикомпьютерные системы

В отличие от мультипроцессоров построить мультикомпьютерную систему относительно несложно. Каждый процессор напрямую связан со своей локальной памятью. Единственная оставшаяся проблема — это общение процессоров между собой. Понятно, что и тут необходима какая-то схема соединения, но поскольку нас интересует только связь между процессорами, объем трафика будет на несколько порядков ниже, чем при использовании сети для поддержания трафика между процессорами и памятью.

Сначала мы рассмотрим гомогенные мультикомпьютерные системы. В этих системах, известных под названием системных сетей (System Area Networks, SAN), узлы монтируются в большой стойке и соединяются единой, обычно высокоскоростной сетью. Как и в предыдущем случае, нам придется выбирать между системами на основе шинной архитектуры и системами на основе коммутации.

В мультикомпьютерных системах с шинной архитектурой процессоры соединяются при помощи разделяемой сети множественного доступа, например FastEthernet. Скорость передачи данных в сети обычно равна 100 Мбит/с. Как и в случае мультипроцессоров с шинной архитектурой, мультикомпьютерные системы с шинной архитектурой имеют ограниченную масштабируемость. В зависимости от того, сколько узлов в действительности нуждаются в обмене данными, обычно не следует ожидать высокой производительности при превышении системой предела в 25—100 узлов.

В коммутируемых мультикомпьютерных системах сообщения, передаваемые от процессора к процессору, маршрутизируются в соединительной сети в отличие от принятых в шинной архитектуре широковещательных рассылок. Было предложено и построено множество различных топологий. Две популярные топологии — квадратные решетки и гиперкубы — представлены на рисунке 4. Решетки просты для понимания и удобны для разработки на их основе печатных плат. Они прекрасно подходят для решения двухмерных задач, например задач теории графов или компьютерного зрения (глаза робота, анализ фотографий).

http://old.mkgt.ru/lib/sp230103/rsoi/intr/M1/images/r1_07.gif

Рисунок 4 Решетка. Гиперкуб

Гиперкуб (hypercube) представляет собой куб размерности n. Гиперкуб, показанный на рис. 1.7, б, четырехмерен. Его можно представить в виде двух обычных кубов, с 8 вершинами и 12 ребрами каждый. Каждая вершина — это процессор. Каждое ребро — это связь между двумя процессорами. Соответствующие вершины обоих кубов соединены между собой. Для расширения гиперкуба в пятое измерение мы должны добавить к этой фигуре еще один комплект из двух связанных кубов, соединив соответствующие вершины двух половинок фигуры. Таким же образом можно создать шестимерный куб, семимерный и т. д[23].

Коммутируемые мультикомпьютерные системы могут быть очень разнообразны. На одном конце спектра лежат процессоры с массовым параллелизмом (Massively Parallel Processors, МРР), гигантские суперкомпьютеры стоимостью во много миллионов долларов, содержащие тысячи процессоров. Нередко они собираются из тех же процессоров, которые используются в рабочих станциях или персональных компьютерах. От других мультикомпьютерных систем их отличает наличие патентованных высокоскоростных соединительных сетей. Эти сети проектируются в расчете на малое время задержки и высокую пропускную способность. Кроме того, предпринимаются специальные меры для защиты системы от сбоев. При наличии тысяч процессоров каждую неделю как минимум несколько будут выходить из строя. Нельзя допустить, чтобы поломка одного из них приводила к выводу из строя всей машины.

На другом конце спектра мы обнаруживаем популярный тип коммутируемых микрокомпьютеров, известных как кластеры рабочих станций (Clusters Of Workstations, COW), основу которых составляют стандартные персональные компьютеры или рабочие станции, соединенные посредством коммерческих коммуникационных компонентов, таких как карты Myrinet. Соединительные сети — вот то, что отличает COW от МРР. Кроме того, обычно не предпринимается никаких особых мер для повышения скорости ввода-вывода или защиты от сбоев в системе. Подобный подход делает COW проще и дешевле[24].

2.2.Гетерогенные мультикомпьютерные системы

Наибольшее число существующих в настоящее время распределенных систем построено по схеме гетерогенных мультикомпьютерных. Это означает, что компьютеры, являющиеся частями этой системы, могут быть крайне разнообразны, например, по типу процессора, размеру памяти и производительности каналов ввода-вывода. На практике роль некоторых из этих компьютеров могут исполнять высокопроизводительные параллельные системы, например мультипроцессорные или гомогенные мультикомпьютерные.

Соединяющая их сеть также может быть сильно неоднородной. Так, например, авторы этой книги помогали разрабатывать самодельную распределенную компьютерную систему, названную DAS, состоящую из четырех кластеров мультикомпьютерных систем, соединенных высокопроизводительными ATM коммутируемыми каналами. Кластеры также были связаны между собой через стандартные Интернет-соединения. Каждый кластер содержал одинаковые процессоры (Pentium III) и соединяющую их сеть (Myrinet), но различался по числу процессоров (64128)[25].

Другим примером гетерогенности является создание крупных мультикомпьютерных систем с использованием существующих сетей и каналов. Так, например, не является чем-то необычным существование кампусных университетских распределенных систем, состоящих из локальных сетей различных факультетов, соединенных между собой высокоскоростными каналами. В глобальных системах различные станции могут, в свою очередь, соединяться общедоступными сетями, например сетевыми службами, предлагаемыми коммерческими операторами связи, например SMDS или Frame relay.

В отличие от систем, обсуждавшихся в предыдущих пунктах, многие крупномасштабные гетерогенные мультикомпьютерные системы нуждаются в глобальном подходе. Это означает, что приложение не может предполагать, что ему постоянно будет доступна определенная производительность или определенные службы. Так, в проекте Iway несколько высокопроизводительных компьютерных центров были связаны через Интернет. Согласно общей модели системы предполагалось, что приложения будут резервировать и использовать ресурсы любого из центров, но полностью скрыть от приложений разницу между центрами оказалось невозможно.

Переходя к вопросам масштабирования, присущим гетерогенным системам, и учитывая необходимость глобального подхода, присущую большинству из них, заметим, что создание приложений для гетерогенных мультикомпьютерных систем требует специализированного программного обеспечения. С этой проблемой распределенные системы справляются. Чтобы у разработчиков приложений не возникало необходимости волноваться об используемом аппаратном обеспечении, распределенные системы предоставляют программную оболочку, которая защищает приложения от того, что происходит на аппаратном уровне (то есть они обеспечивают прозрачность)[26].

ЗАКЛЮЧЕНИЕ

В ходе проведения исследования была достигнута поставленная цель- изучены концепции аппаратных решений.

Для достижения данных целей были выполнены следующие задачи:

  1. Рассмотрено понятие аппаратного решения;
  2. Приведены концепции аппаратных решений;
  3. Проанализированы мультипроцессоры;
  4. Охарактеризованы мультикомпьютеры;
  5. Проанализированы гомогенные мультикомпьютерные системы;
  6. Рассмотрены гетерогенные мультикомпьютерные системы.

Проблему, рассматриваемую в данной работе, нельзя назвать изученной полностью. Это, в первую очередь, связано с тем фактом, что, несмотря на огромный объем полученных знаний и новейших разработок, исследования продолжаются, и мы не можем даже предположить, сколько еще открытий и новшеств ждет нас. Та же самое происходит и в области информационных технологий, на которые с каждым днем возлагаются все большие ответственность и надежды.

Кроме того, в ходе работы над исследованием был получен широкий объем новых теоретических знаний, которые будут полезны для самостоятельной практической и исследовательской деятельности, и, кроме того, для продолжения обучения.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

  1. Администрирование сети на основе Microsoft Windows 2000. Учебный курс MCSE. – М.: Изд-во Русская редакция, 2003.
  2. Андреев А.Г. Новые технологии Windows 2000 / под ред. А.Н. Чекмарева – СПб.: БХВ – Санкт-Петербург, 2005.
  3. Вишневский А. Служба каталога Windows 2008. Учебный курс. - СПб.: Питер, 2009.
  4. Грей Джим. Управление данными: Прошлое, Настоящее и Будущее//Системы управления базами данных. 1998 - №3.
  5. Гук М.. Аппаратные средства локальных сетей. Энциклопедия / М.Ю. Гук. - М.; СПб.: ПИТЕР, 2008. - 540 с.
  6. Кузин А.В. Компьютерные сети. Учебное пособие. М.: академия, 2010 - 346 с.
  7. Кульгин М. Технология корпоративных сетей. Энциклопедия. – СПб.: Питер, 2007.
  8. Максимов Н. В., Попов И. И.. Компьютерные сети: Учебное пособие. - М.: ФОРУМ: ИНФРА-М, 2004. - 336 с.: ил. - (Серия «Профессиональное образование»).
  9. Милославская Н. Г/ Интрасети: доступ в Internet, защита. Учебное пособие для ВУЗов. – М.: ЮНИТИ, 2007.
  10. Моримото Р., Ноэл М. И др. Microsoft Windows Server 2008. Полное руководство. – М.: «Вильямс», 2008.
  11. Олифер В.Г., Олифер Н.А. Компьютерные сети. Принципы, технологии, протоколы. Учебник для вузов. 2-е изд - СПб.: Питер-пресс, 2002.
  12. Олифер В.Г., Олифер Н.А.. «Компьютерные сети: Принципы, технологии, протоколы». 4-е издание. - СПБ: Питер, 2010г.
  13. Разработка инфраструктуры сетевых служб Microsoft Windows Server 2008. Учебный курс MCSE М.: Bзд-во Русская редакция, 2009.
  14. Советов Б.Я., Информационные технологии: Учеб. для вузов
  15. Сосински Б., Московиц Дж. Windows 2008 Server за 24 часа. – М.: Издательский дом Вильямс, 2008.
  16. Тейт С. Windows 2008 для системного администратора. Энциклопедия. – СПб.: Питер, 2009.
  17. Windows 2008 Server. Учебный курс MCSE. – М.: Изд-во Русская редакция, 2008.
  1. Милославская Н. Г/ Интрасети: доступ в Internet, защита. Учебное пособие для ВУЗов. – М.: ЮНИТИ, 2007, 216 с.

  2. Милославская Н. Г/ Интрасети: доступ в Internet, защита. Учебное пособие для ВУЗов. – М.: ЮНИТИ, 2007, 223 с.

  3. Кузин А.В. Компьютерные сети. Учебное пособие. М.: академия, 2010 – 124 с

  4. Тейт С. Windows 2008 для системного администратора. Энциклопедия. – СПб.: Питер, 2009, 187 с.

  5. Тейт С. Windows 2008 для системного администратора. Энциклопедия. – СПб.: Питер, 2009, 203 с

  6. Цехановский В.В.. - М.: Высш. шк., 2003. - 203 с

  7. Цехановский В.В.. - М.: Высш. шк., 2003. – 211 с

  8. Цехановский В.В.. - М.: Высш. шк., 2003. – 223 с

  9. Советов Б.Я., Информационные технологии: Учеб. для вузов

  10. Моримото Р., Ноэл М. И др. Microsoft Windows Server 2008. Полное руководство. – М.: «Вильямс», 2008, 124 с.

  11. Кульгин М. Технология корпоративных сетей. Энциклопедия. – СПб.: Питер, 2007, 271 с.

  12. Кульгин М. Технология корпоративных сетей. Энциклопедия. – СПб.: Питер, 2007, 292 с

  13. Кузин А.В. Компьютерные сети. Учебное пособие. М.: академия, 2010 - 296 с

  14. Грей Джим. Управление данными: Прошлое, Настоящее и Будущее//Системы управления базами данных. 1998 - №3

  15. Разработка инфраструктуры сетевых служб Microsoft Windows Server 2008. Учебный курс MCSE М.: Bзд-во Русская редакция, 2009, 273 с.

  16. Сосински Б., Дж. Московиц Дж. Windows 2008 Server за 24 часа. – М.: Издательский дом Вильямс, 2008, 361 с.

  17. Тейт С. Windows 2008 для системного администратора. Энциклопедия. – СПб.: Питер, 2009, 164 с.

  18. Олифер В.Г., Олифер Н.А. Компьютерные сети. Принципы, технологии, протоколы. Учебник для вузов. 2-е изд - СПб.: Питер-пресс, 2002, 276 с.

  19. Милославская Н. Г/ Интрасети: доступ в Internet, защита. Учебное пособие для ВУЗов. – М.: ЮНИТИ, 2007, 190 с.

  20. Олифер В.Г., Олифер Н.А.. «Компьютерные сети: Принципы, технологии, протоколы». 4-е издание. - СПБ: Питер, 2010г, 154 с.

  21. Олифер В.Г., Олифер Н.А.. «Компьютерные сети: Принципы, технологии, протоколы». 4-е издание. - СПБ: Питер, 2010г, 159 с.

  22. Советов Б.Я., Информационные технологии: Учеб. для вузов

  23. Моримото Р., Ноэл М. И др. Microsoft Windows Server 2008. Полное руководство. – М.: «Вильямс», 2008, 326 с.

  24. Моримото Р., Ноэл М. И др. Microsoft Windows Server 2008. Полное руководство. – М.: «Вильямс», 2008, 336 с

  25. Кузин А.В. Компьютерные сети. Учебное пособие. М.: академия, 2010 - 211 с.

  26. Кузин А.В. Компьютерные сети. Учебное пособие. М.: академия, 2010 – 226 с.