рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Параллельные программы - главный тормоз

Работа сделанна в 2000 году

Параллельные программы - главный тормоз - Реферат, раздел Связь, - 2000 год - Суперкомпьютеры Параллельные Программы - Главный Тормоз. Главным Препятствием К Внедрению Пра...

Параллельные программы - главный тормоз. Главным препятствием к внедрению практически всех параллельных архитектур является отсутствие параллельных программ. У унаследованных от последовательного мира программ имеется недостаток - большой объем кода, принципиально не допускающий параллельного исполнения.

Его нельзя преодолеть за счет усовершенствования техники компиляции. Так, если программа половину времени занимается действиями, которые требуется совершать строго последовательно, то параллельное выполнение оставшейся половины в предельном случае даст лишь двукратное ускорение. В результате, хотим мы этого или нет, последовательные вычислительные алгоритмы придется заменять параллельными. 3.2 MPI Практически на всех параллельных системах имелись свои собственные библиотеки передачи сообщений.

В простейшем случае они предусматривали передачу и прием отдельных пакетов между соседними процессорами. Более сложные поддерживали передачу сообщений произвольной длины, маршрутизацию сообщений и аппарат тегов, который позволяет принимающей стороне самой решать, в какой последовательности обрабатывать поступающие сообщения. Некоторые библиотеки допускали динамическое порождение и уничтожение процессов.

За последние годы в деле создания ПО для систем с распределенной памятью наметился серьезный прогресс. Самым крупным достижением была стандартизация интерфейса передачи сообщений MPI message passing interface. Во-первых, MPI поддерживает несколько режимов передачи данных, важнейшие из которых синхронная передача, не требующая выделения промежуточных буферов для данных и обеспечивающая надежную передачу данных сколь угодно большого размера, и асинхронная передача, при которой посылающий сообщение процесс не ждет начала приема, что позволяет эффективно передавать короткие сообщения.

Во-вторых, MPI позволяет передавать данные не только от одного процесса к другому, но и поддерживает коллективные операции широковещательную передачу, разборку-сборку, операции редукции. В-третьих, MPI предусматривает гетерогенные вычисления. Вычислительная система может включать разные процессоры, в том числе имеющие различные наборы команд и разное представление данных.

Если у вас имеется суперкомпьютер, то это кажется излишним, но для организаций, эксплуатирующих сети рабочих станций с различными процессорами и версиями Unix это находка. Синтаксис MPI облегчает создание приложений в модели SPMD single program multiple data - одна программа работает в разных процессах со своими данными. Одна и та же функция вызывается на узле-источнике и узлах-приемниках, а тип выполняемой операции передача или прием определяется с помощью параметра.

Такой синтаксис вызовов делает SPMD-программы существенно компактнее, хотя и труднее для понимания. Основное отличие стандарта MPI от его предшественников - понятие коммуникатора. Все операции синхронизации и передачи сообщений локализуются внутри коммуникатора. С коммуникатором связывается группа процессов. В частности, все коллективные операции вызываются одновременно на всех процессах, входящих в эту группу Поддержка модульного программирования в сочетании с независимостью от аппаратуры дала мощный импульс к созданию библиотек.

Одна из самых интересных разработок - пакет линейной алгебры ScaLAPACK, разработанный группой Дж. Донгарра. 3.3 Реализации MPI Библиотеки MPI реализованы практически на всех современных суперкомпьютерах, к примеру, в университете Коимбра Португалия разработали библиотеку MPI для Windows 95 httppandora.uc.ptw32mpi, которая особенно интересна для преподавателей и студентов, поскольку при отладке достаточно иметь обычный ПК, а запуск параллельных приложений в сети позволяет получить реальный выигрыш в производительности.

Практический опыт показывает, что идеально распараллеливаемые задачи, такие как параллельное умножение матриц, можно решать практически на любых сетях, и добавление даже относительно слабых вычислительных узлов дает выигрыш. Другие задачи, в частности решение систем линейных уравнений, более требовательны к коммуникационному оборудованию и качеству реализации передачи сообщений. Именно поэтому тесты для оценки реального быстродействия параллельных вычислительных систем базируются на параллельных аналогах известного пакета Linpack.

Так, система линейных уравнений размером 800х800 решается на четырех компьютерах Sun SPARCstation 5, объединенных сетью Ethernet 10 Мбитc, быстрее, чем на трех на пяти - приблизительно за то же время, что и на четырех, а добавление шестого компьютера однозначно ухудшает производительность вычислительной системы. Если вместо Fast Ethernet 10 Мбитc использовать Fast Ethernet 100 Мбитс, что лишь незначительно увеличивает общую стоимость системы, время, затрачиваемое на коммуникацию, уменьшается почти в 10 раз, а для решения данной задачи можно будет эффективно применять уже десятки рабочих станций. 3.4

– Конец работы –

Эта тема принадлежит разделу:

Суперкомпьютеры

За время развития компьютерной индустрии производительность процессора стремительно возрастала, однако появление все более изощренного программного… Что же такое суперкомпьютеры, и зачем они нужны В принципе, суперкомпьютер это… О чем собственно и говорит приставка Супер Super в переводе с английского означает сверх, над. Любая компьютерная…

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Параллельные программы - главный тормоз

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Архитектура SMP
Архитектура SMP. Основное преимущество SMP - относительная простота программирования. В ситуации, когда все процессоры имеют одинаково быстрый доступ к общей памяти, вопрос о том, какой из процессо

СУПЕРКОМПЬЮТЕРЫ КОМПАНИИ nCube
СУПЕРКОМПЬЮТЕРЫ КОМПАНИИ nCube. Одним из пионеров в создании MPP-систем стала основанная в 1983 году компания nCube. В 1985 году появился первый ее MPP-компьютер, nCube 1. Система nCube 1, в основе

Основные принципы архитектуры
Основные принципы архитектуры. a Распределенная память В суперкомпьютерах nCube используется архитектура распределенной памяти, позволяющая оптимизировать доступ к оперативной памяти, вероятно, наи

Архитектура процессора nCube
Архитектура процессора nCube. Процессор nCube, как и следует из общего назначения системы, ориентирован прежде всего на вещественные вычисления. За один такт генератора его вещественное арифметичес

СЕТЬ КАК СУПЕРКОМПЬЮТЕР
СЕТЬ КАК СУПЕРКОМПЬЮТЕР. Теоретически суперкомпьютер можно представить как объединение большого количества обычных компьютеров в один, единый блок. Иначе это можно представить, как локальную сеть,

Средства программирования высокого уровня
Средства программирования высокого уровня. Часто в сетях отдельные компьютеры неравноценны, и имеет смысл нагружать их по-разному, однако даже простейшая программа, учитывающая балансировку нагрузк

Попытка прогноза
Попытка прогноза. Использование сетей компьютеров для вычислительных задач - уже сегодня дело вполне реальное. В этом направлении ведутся научные разработки и сделан ряд пилотных проектов. В качест

Моделирование построение белка
Моделирование построение белка. Корпорация IBM объявила о том, что планирует выделить 100 миллионов долларов на создание самого быстрого в мире суперкомпьютера, который будет использоваться для мод

Виртуальная башня
Виртуальная башня. По оценкам Федерального управления гражданской авиации США, в течение ближайших 20 лет количество самолетов, используемых для коммерческих полетов, увеличится вдвое. Это с

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги