Difference between revisions 7787569 and 7787600 on bgwiki[[Файл:IBM_Blue_Gene_P_supercomputer.jpg|мини|300x300пкс|IBM-s [[Blue Gene|blue ген/П]] суперкомпютър в Argonne national laboratory работи с над 250 000 процесора, чрез използване на обикновени център за данни с климатизация, групирани в 72-гардероба/шкафове са свързани с високоскоростна оптична мрежа на<ref>{{Цитат уеб|title=IBM Blue gene announcement|url=http://www-03.ibm.com/press/us/en/pressrelease/21791.wss|publisher=03.ibm.com|date=26 June 2007|accessdate=9 June 2012}}</ref>]] (contracted; show full)н проблем. Това позволява използването на специално програмирани „FPGA чипове“ или дори персонализирани „VLSI чипове“, които позволяват по-добри съотношения на цена / производителност. Примери за суперкомпютри със специално предназначение включват „Belle“, „Deep Blue“, и „Хидра“ за да играе шах. „Gravity Pipe“ за астрофизика, MDGRAPE-3 за изчисляване на протеинова структура, изчислителни молекулярна динамика и „Deep Crack“ за счупване на DES кодиране. === Използване на енергия и управление на топлина === ТипичСтандартен суперкомпютър консумира големи количества електрическа енергия, почти всички от коикоято се превръща в топлина, изискващи охлаждане. Например, „Tianhe-1A“ консумира 4,04 мегавата (MW) на електричество. Разходите за енергия ита за охлаждане на системата може да бъде значителна, например 4 MW от $ 0,10 / кВтч е $ 400 на час или около милион $ 3,5 годишно. [[Файл:IBM_HS20_blade_server.jpg|ляво|мини|An IBM HS20 [[Свръхкомпактен модулен сървър|blade]]]] уУправлението на топлината е основен въпрос в сложните електронни устройства и засяга мощни компютърни системи впо различни начини. Въпроси с дизайна на захранването и процесора за топлоелектрическото разпръсксейване в суперкомпютри надминат тези на традиционните компютърни охладителнждащи технологии. По този въпрос, суперкомпютрите биват награзждавани с "green computing" .<ref>{{Цитат уеб|title=The Green 500|url=http://www.green500.org|publisher=Green500.org}}</ref><ref>{{Цитат уеб|title=Green 500 list ranks supercomputers|url=http://www.itnews.com.au/News/65619,green-500-list-ranks-supercomputers.aspx|work=iTnews Australia}}</ref><ref name="WuFeng">{{Цитат уеб|author=Wu-chun Feng|title=Making a Case for Efficient Supercomputing {{pipe}} ACM Queue Magazine, Volume 1 Issue 7, 10 January 2003 doi 10.1145/957717.957772|format=PDF|url=http://sss.lanl.gov/pubs/031001-acmq.pdf|year=2003}}</ref>„Green Computing“ . Обвивката на хилядите процесори неминуемо генерира значителни количества топлина енергия, коиято трябва да бъдат разсеяна. „Cray 2“ е бил с течно охлаждане, и използва „FLUORINERT "-охлаждане-водопад"“, където се е вкарливало под налягане. Въпреки това, подхода с охладителната течност не е практичено за този тип системи „multi-cabinet“ ,които са базирани процесори в шкафа. В „System X“ е имало специална охлаждаща система, която е комбинира климатичната система с течно охлаждане и е разработена във връзка с компанията Liebert.<ref name="sysx">''Computational science – ICCS 2005: 5th international conference'' edited by Vaidy S. Sunderam 2005, [//en.wikipedia.org/wiki/Special:BookSources/3540260439 ISBN 3-540-26043-9], pages 60–67</ref> В системата на „Blue Gene“, IBM умишлено използва ниски процесорни захранвания за да се справят с топлинната плътност. В „IBM Power 775,“ е разработен през 2011 г., и има тясно опаковани елементи, които изискват охлаждане от водата. Системата „IBM Aquasar“ използва охлаждане с гореща вода, за да се постигне енергийна ефективност, като водата се използва за отопление на сгради.⏎ <ref>{{Цитат уеб|title=HPC Wire 2 July 2010|url=http://www.hpcwire.com/hpcwire/2010-07-02/ibm_hot_water-cooled_supercomputer_goes_live_at_eth_zurich.html|publisher=Hpcwire.com|date=2 July 2010|accessdate=9 June 2012}}</ref><ref>{{Цитат уеб|author=Martin LaMonica|title=CNet 10 May 2010|url=http://news.cnet.com/8301-11128_3-20004543-54.html|publisher=News.cnet.com|date=10 May 2010|accessdate=9 June 2012}}</ref> Енергийната ефективност на компютърните системи обикновено се измерва по отношение на "FLOPS за ват". През 2008 г., „Roadrunner“ на „IBM“ работи при 3,76 MFLOPS / W. През ноември 2010 г., на „Blue Gene / Q“ достигна 1684 MFLOPS / W. През юни 2011 г. първите 2 места на „Green 500“ списъка са заети от „Blue Gene“ машините в Ню Йорк (постигане 2097 MFLOPS / W), клъстерът „DEGIMA“ в Нагазаки заема трето място с 1375 MFLOPS / W.<ref>{{Цитат уеб|title=Green 500 list|url=http://www.green500.org/lists/2011/06/top/list.php|publisher=Green500.org|accessdate=9 June 2012}}</ref> Защото медни проводници могат да отдават енергия в суперкомпютър с много по-високи мощността, отколкото принудително въздух или циркулиращи охладителни вещества, могат да премахнат отпадната топлина, способността на системите за охлаждане, за да се намали излишната топлина е ограничаващ фактор. Към 2015 г., много от съществуващите суперкомпютри имат повече инфраструктурен капацитет от стандартното максимално потребление на машината - дизайнери общо консервативно разработват силна и охлаждаща инфраструктура за да разсеят повечето от торетичната пикова енергия консумирана от суперкомпютъра. Проектите за бъдещите суперкомпютри са енерго-ограничени - топлинния енергиен дизайн на суперкомпютъра като цяло е оразмерен така, че енергиината и охлаждащата инфраструктура ще могат да се справят⏎ ⏎ Медни проводници могат да отдават енергия в суперкомпютъра с много по-високи мощности, отколкото принудително въздух или циркулиращи охладителни вещества, могат да премахнат отпадната топлина. Способността на системите за охлаждане, за да се намали излишната топлина е ограничаващ фактор. Към 2015 г. много от съществуващите суперкомпютри имат повече инфраструктурен капацитет от стандартното максимално потребление на машинните – дизайнери, общо консервативно се разработват силна и охлаждаща инфраструктура за да разсеят повечето от теоретичната пикова енергия консумирана от суперкомпютъра. Проектите за бъдещите суперкомпютри са „енерго-ограничени“. Топлинния енергиен дизайн на суперкомпютъра като цяло е оразмерен така, че енергийната и охлаждащата инфраструктура да може да се справи. == Софтуер и система за управление == === Операционни системи === От края на 20-ти век, суперкомпютър операционни системи са претърпели големи трансформации, въз основа на промените в суперкомпютър архитектура. Докато ранните операционни системи са по поръчка, съобразени с всеки суперкомпютър да набира скорост, тенденцията е да се премине от вътрешни операционни системи с адаптирането на общ софтуер като Linux. (contracted; show full) == Приложения == == Бележки и препратки == {{Reflist|30em}} [[Категория:Разпределени компютърни архитектури]] [[Категория:Суперкомпютри]] All content in the above text box is licensed under the Creative Commons Attribution-ShareAlike license Version 4 and was originally sourced from https://bg.wikipedia.org/w/index.php?diff=prev&oldid=7787600.
![]() ![]() This site is not affiliated with or endorsed in any way by the Wikimedia Foundation or any of its affiliates. In fact, we fucking despise them.
|