QPACE2 - QPACE2 - Wikipedia

Регенсбург университетіндегі QPACE 2 прототипі

QPACE 2 (QCD Параллельді есептеуіш қозғалтқыш) - бұл жаппай параллель және ауқымды суперкомпьютер. Бұл қолданбаларға арналған торлы кванттық хромодинамика сонымен қатар қолданудың кең спектріне жарайды ..

Шолу

QPACE 2 - келесі әрекеттің жалғасы QPACE суперкомпьютер[1] және iDataCool ыстық сумен салқындату жобасы.[2]Бұл бөлшектер физикасы тобының бірлескен күші Регенсбург университеті және итальяндық компания Eurotech. Академиялық дизайн тобы шамамен 10 кіші және аға физиктерден құралды. Жобаның егжей-тегжейі сипатталған.[3]

QPACE 2 Intel қолданады Xeon Phi үйлесімімен байланысты процессорлар (а.к.а. KNC) PCI Express (қысқартылған PCIe) және FDR InfiniBand.Регенсбург университетінде орнатылған QPACE 2 прототипінің негізгі ерекшеліктері

  • ауқымдылық
  • орауыштың жоғары тығыздығы
  • жылы сумен салқындату (салқындатқыш қажет емес)
  • жоғары энергия тиімділігі
  • үнемді дизайн

Прототип - барлығы 15872 физикалық ядросы бар 64 түйіннен тұратын және 310 TFlop / с максималды өнімділіктен тұратын бір тіректі қондырғы. Ол 2015 жылдың жазында орналастырылды[4] және модельдеу үшін қолданылады торлы кванттық хромодинамика. 2015 жылдың қарашасында QPACE 2 №500 рейтингінде болды Top500 ең қуатты суперкомпьютерлер тізімі[5] және # 15 Жасыл 500 әлемдегі ең үнемді суперкомпьютерлер тізімі.[6]

QPACE 2 қаржыландырылды Неміс зерттеу қоры (DFG) SFB / TRR-55 шеңберінде және Eurotech.

Сәулет

Көптеген қазіргі суперкомпьютерлер - есептеу өнімділігін арттыру үшін PCIe интерфейсі бар үдеткіш карталарын қолданатын гибридті архитектура. Жалпы алғанда, серверлік процессорлар саны шектеулі болғандықтан үдеткіштердің шектеулі санын ғана қолдайды PCIe жолақтары (әдетте 40 үшін Intel Haswell архитектурасы ). Бірнеше үдеткіш карталарын хост жүйесіне біріктірудің жалпы тәсілі бірнеше серверлік процессорларды, әдетте екі немесе төртеуін, орналастыру болып табылады. бөлінген жад жүйелер. Бұл тәсіл PCIe жолдарының көбірек болуына байланысты есептеу түйініне үдеткіштердің көбірек болуына мүмкіндік береді. Сонымен қатар, оның бірнеше кемшіліктері бар:

  • Сервер процессорлары, олардың өзара байланыстары (QPI Intel процессорлары үшін) және жад микросхемалары хост жүйесінің басып шығаруын едәуір арттырады.
  • Мультипроцессорлық дизайнға шығындар әдетте үлкен.
  • Серверлік процессорлар компьютердің гибридті архитектурасының жалпы қуат қолтаңбасына айтарлықтай үлес қосады және тиісті салқындату қабілеттерін қажет етеді.
  • Серверлік процессордың өзара байланысы түйінішілік тиімді байланысқа кедергі келтіруі және сыртқы желі арқылы түйін аралық байланыстың жұмысына шектеулер қоюы мүмкін.
  • Серверлік процессорлардың есептеу өнімділігі, әдетте, үдеткіш карталарынан гөрі төмен, сондықтан олардың жалпы өнімділікке қосқан үлесі шамалы болуы мүмкін.
  • Нұсқаулықтың архитектурасы мен серверлік процессорлар мен үдеткіштердің аппараттық қорлары айтарлықтай ерекшеленеді. Сондықтан екі архитектурада да кодтың жасалуы және орындалуы әрдайым мүмкін емес.

QPACE 2 архитектурасы бұл кемшіліктерді бір қуаты аз түйін дизайны арқылы шешеді Intel Haswell E3 хост процессоры төрт орынды алады Xeon Phi Есептеу қуаты үшін 7120X үдеткіш карталары және бір екі портты FDR InfiniBand сыртқы байланыс үшін желілік интерфейс картасы. Бұған жету үшін түйін ішіндегі компоненттер 96 жолақты PCIe коммутаторымен өзара байланысты.

QPACE 2 тіреуінде 64 есептеу түйіні бар (демек, 256) Xeon Phi жалпы үдеткіштер). 32 торап әрқайсысы тіректің алдыңғы және артқы жағында орналасқан. Қуат ішкі жүйесі 96 кВт жиынтық шыңына жеткізетін 48 қуат көзінен тұрады. QPACE 2 осы орауыш пен қуат тығыздығына қол жеткізу үшін жылы сумен салқындататын ерітіндіге сүйенеді.

Есептеу түйіні

QPACE 2 схемалық безендіру

QPACE 2 түйіні өзара байланысты тауарлық жабдықтардан тұрады PCIe. The орта ұшақ 96 жолақты жүргізеді PCIe қосқышы (PEX8796 Аваго, бұрын PLX Technology), алты 16 жолақты PCIe Gen3 ұясын ұсынады және барлық слоттарға қуат береді. Үшін бір слот қолданылады CPU картасы, ол PCIe форм-факторлық картасы болып табылады Intel Haswell E3-1230L v3 16 ГБ DDR3 жады бар сервер процессоры, сондай-ақ микроконтроллер түйінді бақылау және басқару. Төрт слот қолданылады Xeon Phi Әрқайсысында 16 ГБ GDDR5 бар 7120X карталары және екі портты FDR үшін бір ұяшық InfiniBand желілік интерфейс картасы (Connect-IB by Mellanox).

Орта планера мен процессор картасы QPACE 2 жобасына арналған, бірақ оны басқа жобалар мен өнімдер үшін қайта пайдалануға болады.

Төмен қуатты Intel E3-1230L v3 серверлік процессоры энергияны үнемдейді, бірақ 2015 ж. Шамасында қол жетімді басқа сервер процессорларымен салыстырғанда есептеу қуаты әлсіз (және әсіресе көптеген акселераторларға қарағанда әлсіз). The Орталық Есептеуіш Бөлім түйіннің есептеу қуатына айтарлықтай ықпал етпейді. Ол тек амалдық жүйені және жүйеге қатысты драйверлерді басқарады. Техникалық тұрғыдан процессор а ретінде қызмет етеді тамыр кешені PCIe матасына арналған. PCIe коммутаторы хост процессорының PCIe жолдарының шектеулі санын 80 жолаққа дейін кеңейтеді, сондықтан көптеген компоненттерді (4х Xeon Phi және 1x InfiniBand, әрқайсысы x16 PCIe) CPU-ға қосылуға мүмкіндік береді. PCIe соңғы нүктелері. Бұл архитектура сонымен қатар Xeon Phis-ке PCIe арқылы деңгейлес байланыс орнатуға және хост-процессордан өтпей-ақ сыртқы желіге тікелей қол жеткізуге мүмкіндік береді.

Әр QPACE 2 түйіні 248 физикалық ядродан тұрады (хост CPU: 4, Xeon Phi: әрқайсысы 61). Хост-процессор мен үдеткішті қолдау көп жұмыс. Бір түйінге келетін логикалық ядро ​​саны - 984.

Түйіннің дизайны QPACE 2-де қолданылатын компоненттермен ғана шектелмейді. Негізінде PCIe-ді қолдайтын кез-келген карталар, мысалы, үдеткіштер. Графикалық процессорлар және InfiniBand-тан басқа желілік технологияларды форма-фактор мен қуат сипаттамалары сақталғанша пайдалануға болады.

Желілер

8x8 гипер-көлденең тірек. 64 түйіннің әрқайсысы (әрқайсысында 2 порт бар) х (қызыл) және у (көк) бағытындағы бір қосқышқа қосылған. Ажыратқыштар (тіктөртбұрыштармен көрсетілген) 2х2 торда орналасқан.

Түйінішілік байланыс PCIe коммутаторы арқылы хост CPU қатысуынсыз жүреді. Түйінаралық байланыс FDR InfiniBand негізіне алынған. InfiniBand желісінің топологиясы - екі өлшемді гипер-көлденең жолақ. Бұл InfiniBand ажыратқыштарының екі өлшемді торы салынғанын және түйіннің екі InfiniBand порттары өлшемдердің әрқайсысында бір қосқышқа қосылғандығын білдіреді. Гипер-көлденең топологияны бөлшектер физиктерінің жапондық CP-PACS ынтымақтастығы алғаш рет енгізді.[7]

InfiniBand желісі а-ға енгізу-шығару үшін де қолданылады Жылтыр файлдық жүйесі.

Процессорлық карта екеуін ұсынады Гигабит Ethernet түйіндерді басқару және операциялық жүйені жүктеу үшін қолданылатын интерфейстер.

Салқындату

Жалғыз сумен салқындатылған Xeon Phi және 5 бос слоттары бар орта ұшақ.

QPACE 2 суперкомпьютерінің түйіндеріне негізделген инновациялық тұжырымдаманы қолдана отырып сумен салқындатылады орамдық байланыс технология.[8] Су алюминийден жасалған алюминийден жасалған ролл-байланыстырушы тақтайша арқылы алюминий немесе мыс интерпозаторлары және термиялық майлар немесе термиялық интерфейс материалдары арқылы ыстық компоненттермен термиялық байланыста болады. Түйіннің барлық компоненттері осылайша салқындатылады. Салқындату тұжырымдамасының өнімділігі мүмкіндік береді еркін салқындату жыл бойы.

Түйіннің қуат шығыны синтетикалық эталондарда 1400 Вт-қа дейін өлшенді. Торлы кванттық хромодинамикадағы типтік есептеулер үшін шамамен 1000 Вт қажет.

Жүйелік бағдарламалық жасақтама

Дискісіз түйіндер стандартты қолданады Linux тарату (CentOS 7 ), ол Ethernet желісі арқылы жүктеледі. Xeon Phis қол жетімді Intel Manycore платформалық бағдарламалық жасақтамасын (MPSS) басқарады. InfiniBand байланысы OFED стек, ол еркін қол жетімді.

Сондай-ақ қараңыз

Әдебиеттер тізімі

  1. ^ Х.Байер және басқалар, PoS LAT2009 (2009) 001, (arXiv:0911.2174 )
  2. ^ Н.Мейер және басқалар, 383. Компьютерлік ғылымдағы дәрістер, (arXiv:1309.4887 )
  3. ^ P. Arts және басқалар, PoS LAT2014 (2014) 021, (arXiv:1502.04025 )
  4. ^ Eurotech пресс-релизі
  5. ^ Top500 тізімі, 2015 ж. Қараша, http://top500.org/system/178607
  6. ^ Green500 тізімі, қараша 2015 жыл, http://green500.org/lists/green201511&green500from=1&green500to=100
  7. ^ Ивасаки, Ядро. Физ. Proc. Қосымша. 34 (1994) 78, (arXiv:hep-lat / 9401030 )
  8. ^ Дж.Беддоуз және М.Бибби, Металл өндіріс процестерінің принциптері, Elsevier Science (1999)