Car-tech

Далее: компьютеры exascale, ожидаемые к 2020 году

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net

Оглавление:

Anonim

Если увеличение скорости суперкомпьютера будет продолжаться с их нынешним темпом, мы увидим первую машину exascale к 2020 году, по оценкам сторонников Top500 компиляция самых быстрых систем в мире.

Системные архитекторы таких больших компьютеров столкнутся с рядом критических проблем, предупреждает хранитель списка.

«Проблемы будут существенными для доставки машины», сказал Джек Донгарра, Университет Теннесси, Ноксвилл, исследователь, который является одним из директоров Top500. Dongarra выступила на конференции SC2012, которая состоялась на этой неделе в Солт-Лейк-Сити во время презентации о последнем выпуске списка, выпущенного на прошлой неделе.

У нас все еще есть путь, прежде чем производительность exascale станет возможной. Машина exascale могла бы иметь один квинтиллион FLOPS (операции с плавающей точкой в ​​секунду) или от 10 до 18 FLOPS. Даже самые быстрые суперкомпьютеры сегодня предлагают менее 20% возможностей exascale-машины.

Top500

Новые высоты

В последнем выпуске списка суперкомпьютеров Top500, выпущенного в понедельник, самый быстрый компьютер в списке была система Oak Ridge National Laboratory Titan, машина, способная выполнять 17,59 петафлопс. Петафлоп - это вычисление с плавающей запятой в четыре раза в секунду, или от 10 до 15 FLOPS.

Но каждый новый Top500 - список, который скомпилирован два раза в год, показывает, как быстро растут скорости суперкомпьютеров. Судя по списку, суперкомпьютеры кажутся в десять раз сильнее, чем каждые десять лет. В 1996 году появился первый терафлоп-компьютер на Top500, а в 2008 году появился первый петафлоп-компьютер. Экстраполируя этот уровень прогресса, Dongarra оценивает, что вычисления exascale должны появиться примерно в 2020 году.

Сообщество высокопроизводительных вычислений (HPC) приняло участие в вычислении exascale в качестве важной вехи. Intel создала линейку многоядерных процессоров Phi, которые, как надеются компании, могут послужить основой для компьютеров exascale, которые могут быть запущены к 2018 году.

В своем выступлении Донгарра набросал характеристики машины exascale. Вероятно, такая машина будет находиться между 100 000 и 1 000 000 узлов и сможет выполнять до миллиарда потоков в любой момент времени. Производительность отдельных узлов должна составлять от 1,5 до 15 терафлоп, а межсоединения должны иметь пропускную способность от 200 до 400 гигабайт в секунду.

Производителям суперкомпьютеров придется создавать свои машины, чтобы их стоимость и энергопотребление не увеличивались линейно Дунгарра сказал, что они будут слишком дорогими для покупки и запуска. Машина exascale должна стоить около 200 миллионов долларов и использовать только около 20 мегаватт или около 50 гигафлоп на ватт.

Dongarra ожидает, что половина стоимости строительства такого компьютера будет предназначена для покупки памяти для системы. Судя по дорожным картам производителей памяти, Dongarra предположил, что к 2020 году около $ 100 млн будет покупать от 32 петабайт до 64 петабайт памяти.

Top500

Программный вызов

Помимо проблем с оборудованием, разработчики суперкомпьютеров exascale должны также справляются с проблемами программного обеспечения. Одной из проблем будет синхронизация, сказал Донгарра. Сегодняшние машины передают задачи между множеством разных узлов, хотя этот подход необходимо упростить по мере увеличения количества узлов.

«Сегодня наша модель параллельной обработки является моделью fork / join, но вы не можете этого сделать в [что мы должны изменить нашу модель. Мы должны быть более синхронными », - сказал Донгарра. В то же время необходимо разработать алгоритмы, которые уменьшают общую связь между узлами.

Следует учитывать и другие факторы. Программное обеспечение должно поставляться со встроенными подпрограммами для оптимизации. «Мы не можем рассчитывать на то, что пользователь установит правильные ручки и циферблаты, чтобы заставить программное обеспечение работать в любом месте рядом с максимальной производительностью», - сказал Донгарра. Устойчивость к отказам будет еще одной важной особенностью, так же как и воспроизводимость результатов, или гарантией того, что сложный расчет даст тот же самый ответ, если вы запускаете более одного раза.

Воспроизводимость может показаться очевидной чертой для компьютера. Но на самом деле это может быть проблемой для огромных вычислений на многоядерных суперкомпьютерах.

«С точки зрения численных методов трудно гарантировать побитную воспроизводимость», - сказал Донгарра. «Основная проблема заключается в сокращении - суммирование чисел параллельно. Если я не могу гарантировать порядок, в котором эти числа собираются вместе, у меня будут разные ошибки округления. Эта небольшая разница может быть увеличена таким образом, что может привести к катастрофическим расхождениям в ответах », - сказал он.

« Мы должны придумать сценарий, в котором мы можем гарантировать порядок, в котором эти операции выполняются, поэтому мы можем гарантировать, что у нас есть те же результаты, - сказал Донгарра.

Joab Jackson рассматривает корпоративное программное обеспечение и общую технологию для новостей Служба новостей IDG. Следуйте за Joab в Twitter на @Joab_Jackson. Адрес электронной почты Joab - [email protected]