Что такое findslide.org?

FindSlide.org - это сайт презентаций, докладов, шаблонов в формате PowerPoint.


Для правообладателей

Обратная связь

Email: Нажмите что бы посмотреть 

Яндекс.Метрика

Презентация на тему Высокопроизводительные вычисления, закон Мура

Введение, закон МураРост производительности обеспечивался с помощью уменьшения размеров элементов микропроцессоров. При этом падало энергопотребление и росли частоты работы, компьютеры становились все быстрее, сохраняя, в общих чертах, свою архитектуру. Менялся техпроцесс производства микросхем и мегагерцы вырастали
Высокопроизводительные вычисленияМинков В.И. 2016 Введение, закон МураРост производительности обеспечивался с помощью уменьшения размеров элементов микропроцессоров. При Первая часть произведения — количество инструкций, выполняемых за такт (IPC, Instruction Per ПараллельностьПроцессор, который умеет сам определять независимые и непротиворечащие друг другу инструкции и Под параллельными вычислениями понимают обработку данных, при которой одновременно выполняется несколько машинных При рассмотрении проблемы организации параллельных вычислений следует различать следующие возможные режимы выполнения Параллелизм на уровне данныхВекторные процессорыотносятся к SIMD — (single instruction, multiple data — Классификация вычислительных систем SISD (Single Instruction, Single Data) - системы, в которых существует МультиархитектурыMIMD (Multiple Instruction stream, Multiple Data stream — Множественный поток Команд, Множественный МультипроцессорМультипроцессор — это компьютерная система, которая содержит неск. процессоров и одно видимое для Многоядерные процессорыОбщий кэш NUMANUMA (Non-Uniform Memory Access — «неравномерный доступ к памяти» или Non-Uniform Memory
Слайды презентации

Слайд 2 Введение, закон Мура
Рост производительности обеспечивался с помощью уменьшения

Введение, закон МураРост производительности обеспечивался с помощью уменьшения размеров элементов микропроцессоров.

размеров элементов микропроцессоров. При этом падало энергопотребление и росли

частоты работы, компьютеры становились все быстрее, сохраняя, в общих чертах, свою архитектуру. Менялся техпроцесс производства микросхем и мегагерцы вырастали в гигагерцы.
Оказалось, частоту дальше повышать нельзя — растут токи утечки, процессоры перегреваются и обойти это не получается.
Закон Мура, по которому число транзисторов и связанная с ним производительность компьютеров удваивалась каждые полтора-два года оказался сомнительным.

Слайд 3
Первая часть произведения — количество инструкций, выполняемых за

Первая часть произведения — количество инструкций, выполняемых за такт (IPC, Instruction

такт (IPC, Instruction Per Clock), вторая – кол-во тактов

процессора в единицу времени, тактовая частота. Для увеличения производительности нужно поднимать тактовую частоту/увеличивать кол-во инструкций за один такт.  Рост частоты остановился -> увеличение количества исполняемых инструкций.



Слайд 4 Параллельность
Процессор, который умеет сам определять независимые и непротиворечащие

ПараллельностьПроцессор, который умеет сам определять независимые и непротиворечащие друг другу инструкции

друг другу инструкции и параллельно их выполнять, называется суперскалярным
Пример:
А=1
В=2
С=А+В
EPIC

(explicitly parallel instruction computing) — микропроцессорная архитектура с явным параллелизмом команд. …..?
Hyper Threading …..?
Технологии параллелизма на уровне инструкций активно развивались в 90е и первую половину 2000х годов, но в настоящее время их потенциал практически исчерпан


Слайд 5 Под параллельными вычислениями понимают обработку данных, при которой

Под параллельными вычислениями понимают обработку данных, при которой одновременно выполняется несколько

одновременно выполняется несколько машинных операций.
Дополнительной формой вычислений является

конвейерная реализация обрабатывающих устройств.

Параллельность


Слайд 6 При рассмотрении проблемы организации параллельных вычислений следует различать

При рассмотрении проблемы организации параллельных вычислений следует различать следующие возможные режимы

следующие возможные режимы выполнения независимых частей программы:

параллельное выполнение

- в один и тот же момент времени может выполняться несколько команд обработки данных

распределенные вычисления - параллельная обработка данных, при которой используется несколько обрабатывающих устройств

многозадачный режим (режим разделения времени) - для выполнения процессов используется единственный процессор


Слайд 7 Параллелизм на уровне данных
Векторные процессоры
относятся к SIMD — (single

Параллелизм на уровне данныхВекторные процессорыотносятся к SIMD — (single instruction, multiple data

instruction, multiple data — одиночный поток команд, множественный поток

данных)
Графические процессоры
SIMT — (single instruction, multiple threads, одна инструкция — множество потоков). Так же как в SIMD операции производятся с массивами данных, но степеней свободы гораздо больше — для каждой ячейки обрабатываемых данных работает отдельная нить команд.

Слайд 8 Классификация вычислительных систем
SISD (Single Instruction, Single Data) -

Классификация вычислительных систем SISD (Single Instruction, Single Data) - системы, в которых

системы, в которых существует одиночный поток команд и одиночный

поток данных;
SIMD (Single Instruction, Multiple Data) - системы c одиночным потоком команд и множественным потоком данных;
MISD (Multiple Instruction, Single Data) - системы, в которых существует множественный поток команд и одиночный поток данных;
MIMD (Multiple Instruction, Multiple Data) - системы c множественным потоком команд и множественным потоком данных;

ПР — это один или несколько процессорных элементов,
УУ — устройство управления,
ПД — память данных


Слайд 10 Мультиархитектуры
MIMD (Multiple Instruction stream, Multiple Data stream —

МультиархитектурыMIMD (Multiple Instruction stream, Multiple Data stream — Множественный поток Команд,

Множественный поток Команд, Множественный поток Данных)
многопоточные программы
Ускорение кода зависит

от числа процессоров и параллельности кода согласно формуле

Слайд 12 Мультипроцессор
Мультипроцессор — это компьютерная система, которая содержит неск. процессоров

МультипроцессорМультипроцессор — это компьютерная система, которая содержит неск. процессоров и одно видимое

и одно видимое для всех процессоров адресное пространство. Мультипроцессоры отличаются

по организации работы с памятью.
Системы с общей памятью

Слайд 13 Многоядерные процессоры
Общий кэш

Многоядерные процессорыОбщий кэш

Слайд 14 NUMA
NUMA (Non-Uniform Memory Access — «неравномерный доступ к

NUMANUMA (Non-Uniform Memory Access — «неравномерный доступ к памяти» или Non-Uniform

памяти» или Non-Uniform Memory Architecture — «Архитектура с неравномерной

памятью») — архитектура, в которой, при общем адресном пространстве, скорость доступа к памяти зависит от ее расположения

  • Имя файла: vysokoproizvoditelnye-vychisleniya-zakon-mura.pptx
  • Количество просмотров: 98
  • Количество скачиваний: 1
- Предыдущая Verbs