donmigel_62: (кот - учёный)

Квантовый компьютер D-Wave 2 обгоняет средний суперкомпьютер в 3600 раз

Квантовый компьютер D-Wave


В настоящее время область квантовых вычислений считается будущим отрасли обработки данных. Квантовые вычислительные системы будущего будут обладать вычислительной мощностью в тысячи раз превосходящей мощность современных суперкомпьютеров, потребляя при этом на порядки меньшие количества электрической энергии. В настоящее время уже существуют первые рабочие квантовые компьютеры, развитие которых идет бурным темпом, а первый из них, D-Wave One, с момента его первого появления два года назад уже удвоил свою вычислительную мощность.




Кубиты компьютера DW2


Напомним нашим читателям, что квантовые вычисления отличаются от классических вычислений уровнем их фундаментальной реализации. В традиционных компьютерах используются биты, способные оперировать двумя значениями, логической 1 и 0. Основой квантовых компьютеров являются квантовые биты, кубиты, которые благодаря эффектам квантовой механики могут находиться и в третьем состоянии, в состоянии квантовой суперпозиции, когда их значение равно 1 и 0 одновременно. Кроме того различия между обычными и квантовыми компьютерами касаются и методов организации вычислений. К примеру, традиционный компьютер решает задачи математической оптимизации последовательно, просчитывая один вариант за другим, а квантовый компьютер оценивает сразу весь массив решений, выбирая из него наиболее оптимальные варианты, что позволяет найти не только единственное наилучшее решение, но и десятки тысяч близких альтернативных вариантов решения задачи за короткое время.

Когда первый квантовый компьютер D-Wave One (DW1) впервые дебютировал в мае 2011 года, в его составе насчитывалось 128 квантовых бит, окруженных специализированными чипами и электрическими цепями, обеспечивающими функционирование квантового бита. При решении задач определенного рода при помощи технологии адиабатных квантовых вычислений этот компьютер во много раз превосходил самые мощные суперкомпьютеры. Однако, недавно выпущенный квантовый компьютер D-Wave Two (DW2), обладающий 512 квантовыми битами, заставляет его предшественника "нервно курить в сторонке".

Кубиты компьютера DW1


Каждый кубит является крошечным микропроцессором, работающим с помощью эффектов сверхпроводимости и квантовой механики. Возможности квантовых вычислительных систем напрямую связаны с количеством связанных друг с другом кубитов. Если связать все 509 кубитов компьютера D-Wave Two, которые принимают непосредственное участие в вычислениях, друг с другом, то его производительность будет выше на 100 порядков, нежели производительность его предшественника. Однако, компоновка кубитов нового компьютера позволяет связать один кубит только с восемью соседними кубитами. Несмотря на это, компьютер DW2 приблизительно в 300 тысяч раз более мощен, нежели компьютер DW1.

При проведении тестов, в которых были задействованы 439 кубит для решения специализированных оптимизационных алгоритмов CPLEX, компьютер DW2 нашел 100 вариантов решений за половину секунды времени, что 3600 раз быстрее, чем необходимо суперкомпьютеру, который тратит на это приблизительно полчаса времени.

Один кубит компьютера DW2


Для того, чтобы добиться полного использования квантовых эффектов, кубиты компьютера DW2 находятся в чрезвычайных условиях окружающей среды. Их температура составляет 0.02 градуса по шкале Кельвина, что в 150 раз холоднее, нежели температура в межзвездном космическом пространстве. Глубина вакуума, в котором находятся кубиты компьютера в 100 миллиардов раз ниже, нежели атмосферное давление при стандартных условиях. Благодаря использованию системы защиты, внешнее магнитное и электрическое воздействие на кубиты снижено в 50 тысяч раз. Примечательным является тот факт, что для создания сверхнизкой температуры и глубокого вакуума требуется всего 15.5 киловатт электрической энергии, а сам компьютер занимает только 10 квадратных метров площади, что совершенно несравнимо с тысячами киловатт и огромными пространствами, занимаемыми суперкомпьютерами и сопутствующей инфраструктурой.

Пока что компания Google, НАСА и Университетская Ассоциация космических исследований (Universities Space Research Association), которые "стоят в очереди" на приобретение квантового компьютера DW2, не разглашают суммы, в которую им обойдется его приобретение. Но согласно информации от информационного агентства BBC, ссылающегося на мнение из компетентных источников, эта сумма будет находиться в районе 15 миллионов долларов.

http://gizmodo.com/the-quantum-d-wave-2-is-3-600-times-faster-than-a-super-1532199369
donmigel_62: (кот - учёный)

«Тяжёлые солитоны» оказались вихревыми кольцами

В 2013 году в Массачусетском технологическом институте был провёден эксперимент по изучению газа, состоящего из холодных атомов, который показал довольно загадочные результаты: в газе существовали долгоживущие волны, путешествовавшие сквозь него неожиданно медленно — так, как теория «не разрешала». Их назвали «тяжёлыми солитонами», но проблемы с теорией это решить не помогло.

Физики Аурель Булгак (Aurel Bulgac) и Майкл Форбс (Michael Forbes) из Вашингтонского университета (США) вместе с коллегами смоделировали процессы в подобном газе при помощи суперкомпьютера Titan и пришли к следующему выводу: странности волн были кажущимися — их просто неверно идентифицировали.

Так называемые тяжёлые солитоны — скорее всего, вихревые кольца, что-то вроде квантового эквивалента обычных колец дыма, пускаемых иными курильщиками.

Стандартное вихревое кольцо (тороидальный пузырь) в эксперименте (иллюстрация University of Washington).

Это структуры, чем-то напоминающие обычный пончик, где потоки жидкости или газа связаны между собой и вращаются в виде замкнутого кольца. Физика таких колец та же, что и у торнадо, вулканических извержений и грибовидного облака атомного взрыва. Явление это довольно частое, его можно создать и искусственно, до некоторой степени контролируя его размеры и положение в пространстве. К примеру, вот как это делает дельфин:





«Используя самые современные методы моделирования, мы продемонстрировали, что все аспекты результатов, полученных в МТИ, могут быть объяснены вихревыми кольцами», — подчёркивает Майкл Форбс. Более того, говорят учёные, модели позволяют настолько детально анализировать процессы в холодных газах, что в будущем это «может революционизировать методы решения определённых физических проблем».

Фрагмент суперкомпьютера Titan (фото ORNL).

В частности, полагают авторы исследования, благодаря подобным симуляциям можно моделировать ядерные реакции без необходимости в натурных испытаниях. Среди прочего аналогичные методы способны прояснить и природу «глитчей» нейтронных звёзд — странных колебаний в обычно предельно строгой периодичности сигналов, исходящих из окрестностей нейтронных звёзд.

Отчёт об исследовании опубликован в журнале Physical Review Letters, а с его препринтом можно ознакомиться здесь.

Подготовлено по материалам Вашингтонского университета.

donmigel_62: (кот - учёный)

Японский суперкомпьютер оказался в 2400 раз медленнее мозга человека


Fujitsu K Фото: Fujitsu.
Fujitsu K Фото: Fujitsu.

Четвертый в мире по производительности суперкомпьютер Fujitsu K смоделировал «секунду работы человеческого мозга». Об этом сообщает Telegraph. На моделирование секунды у суперкомпьютера ушло 40 минут, то есть 2,4 тысячи секунд.

В рамках работы моделировалась нейронная сеть, состоящая из более чем 50 миллиардов нейронов.

Утверждается, что сложность системы сопоставима с «сотой долей сложности настоящего мозга». Насколько корректно работа нейронной сети передает работу этого органа, ученые не уточняют – точная схема связей нейронов в мозге неизвестна.

Read more... )
donmigel_62: (кот - учёный)


Сверхчеловеческие результаты: умные машины



Мне нравится, что при распознавании изображений появился термин «сверхчеловеческие результаты» (superhuman performance) — после многих лет разговоров, что компьютеры никогда-никогда (ладно, «в обозримой перспективе») не смогут превзойти человеческий мозг с его миллиардами нейронов. Моя любимая страничка по отслеживанию этих сверхчеловеческих результатов — Superhuman Visual Pattern Recognition. Это страница на вебсайте Jürgen Schmidhuber, чья команда выиграла с 2009 года девять международных соревнований по машинному обучению и распознаванию образов, показав первые в истории сверхчеловеческие (superhuman) результаты.

Увы, в большинстве соревнований компьютерных программ не проводится сравнения с достижениями людей. Но когда это сравнение производится, то, похоже, сегодняшнее состояние state-of-the-art — это ничья. Например, в последнем соревновании по распознаванию рукописных китайских иероглифов в августе 2013 года где программа Университета Варвика победила людей в номинации онлайн (всего там было шесть номинаций, из них только в двух номинациях были известны результаты людей — в этой паре одно соревнование люди выиграли у лучшей программы 96.13% : 94.77%, а в другой проиграли программе со счётом 95.19% : 97.39%).

newfacecopyrightistockphoto.comalwyn-cooper

Компьютеры будут переходить к сверхчеловеческим результатам постепенно, никто ничего не заметит, это будет не больно. Начали компьютеры с того, что смогли днём и ночью без устали умножать числа, и их полюбили бухгалтеры. Потом компьютеры объявили шахматы не вершиной интеллектуальной деятельности, а продолжением номеров чудо-счётчиков из цирка (скептикам, рассказывающим про Go: там тоже всё не стоит на месте. Просто Go мало кому интересно, что on June 5, 2013, computer program Zen defeated Takuto Ooomote with a 3 stone handicap. Takuto Ooomote is a 9 dan on the Tygem server. The 19×19 game used Japanese rules with a time setting of 60 minutes plus 30 seconds byoyomi).


В 2011 году выяснилось, что компьютеры распознают дорожные знаки не хуже людей — первые сверхчеловеческие результаты по распознаванию изображений. Тогда же IBM Watson победил чемпионов в Jeopardy! Примерно тогда же Continuator победил в Musical Turing Test, а его наследник научился подменять музыкантов в джем-сешн.

Сейчас из Google дозировано начала поступать информация, что компьютеры и автомобиль водят лучше, чем человек, и фуры разгружают лучше, чем человек (если к ним приделывают нужные датчики и моторчики. Гугль купил недавно компанию, специализирующуюся на создании робота-грузчика, я писал об этой компании).

И так далее, игнорируя всякие споры, что «компьютер ничего нового придумать не может», «человеческий мозг имеет огромный запас по мощности перед нынешними компьютерами» и прочие бла-бла-бла. Тут нужно напомнить, что инженерам не нужно, чтобы при создании их систем (а хоть и систем, достигающих сверхчеловеческие результаты — как по созданию «нового», так и распознаванию «старого») была разработана какая-то теория. Если бы к инженеру в 1700 году пришли и попросили построить мост, а он бы сказал, что не может — ибо сопромат будет в готовом к использованию в реальных проектах виде только лет через двести, такого бы инженера никто не понял. Для полётов на Луну или Марс не требовалось перед этим создавать теорию Луны или теорию Марса.

Взяли, и полетели. Со сверхчеловеческими результатами (superhuman performance) компьютерами та же история: никакой победы нокаутом, выигрыш по очкам, при полном игнорировании всяких научных доказательств неспособности машин выполнять человечью работу, а хоть работу и творческую. Особенно если учесть, что «творческость» практически нельзя определить. Чего люди не понимают, как делается, то и объявляется «творческим» да «интеллектуальным», как когда-то шахматы. А что понимают, так через некоторое время оно начинает жить в виде программки в смартфоне, гроссмейстерского уровня — и с этих пор становится «нетворческим» и «неинтеллектуальным».


Анатолий Левенчук

http://www.computerra.ru/91524/sverhchelovecheskie-rezultatyi/

donmigel_62: (кот - учёный)

Япония планирует к 2020 году создать новый суперкомпьютер экза-уровня

Суперкомпьютер


Представители Института физико-химических исследований RIKEN, одного из ведущих научно-исследовательских учреждений Японии, объявили о планах создания нового суперкомпьютера экза-уровня, который сможет выполнить один квинтиллион (миллион триллионов) операций с плавающей запятой в секунду. Согласно предварительным планам, этот новый суперкомпьютер, вычислительная мощность которого в 30 раз будет превышать возможности нынешнего самого мощного суперкомпьютера, китайской системы Tianhe-2, должен войти в строй в 2020 году.


Создание нового суперкомпьютера будет финансироваться японским Министерством образования, культуры, спорта, науки и техники (Ministry of Education, Culture, Sports, Science and Technology). Согласно заявлению представителей RIKEN, целью создания нового суперкомпьютера является "удержание Японии на самом острие современных достижений вычислительной техники и науки".

Новая суперкомпьютерная система буде в 100 раз быстрее, нежели созданный в свое время специалистами RIKEN и компании Fujitsu суперкомпьютер K computer, который занимал первое место рейтинга Top-500 в 2011 году. И институт RIKEN был выбран японским правительством в качестве координатора нового проекта совершенно не случайно. Специалисты этого учреждения уже имеют весьма богатый опыт в создании и эксплуатации высокопроизводительных суперкомпьютерных систем, ведь вышеупомянутый суперкомпьютер K computer находится в распоряжении и эксплуатируется специалистами Института передовых вычислительных технологий RIKEN (RIKEN Advanced Institute for Computational Science, AICS).

Введение в строй вычислительной системы экза-уровня сможет продвинуть на качественно новый уровень некоторые области науки и техники, основой которых являются интенсивные вычисления и обработка огромных массивов информации. К этим областям относятся разработка новых лекарственных препаратов, моделирование климатических изменений и создание прогнозов погоды, исследования в области астрофизики, моделирование мозга и другие области, где требуется расчет невероятно сложных математических моделей.

http://www.kurzweilai.net/riken-to-develop-exascale-supercomputer-by-2020
donmigel_62: (кот - учёный)

Моделирование кавитационных пузырьков получило премию Гордона Белла

Системы IBM Blue Gene помогали определить структуру генома человека, копировали силу мозга, запускали самолеты, определяли опухоли, предсказывали климатические изменения, определяли месторождения горючих полезных ископаемых и др.

Сейчас мы можем добавить в этот список моделирование 15 000 пузырьков. Звучит несерьезно? Но на самом деле это исследование получило премию Гордона Белла, вручаемую за достижения в области высокопроизводительных вычислений.



Почему для моделирования были выбраны пузырьки? Когда пузырьки схлопываются при кавитации, они могут быть очень разрушительными.



Посмотрев на пропеллер моторной лодки, можно увидеть, какой урон кавитационные пузырьки наносят металлу.



Ученые из Швейцарской высшей технической школы Цюриха (ETN Zurich) и IBM Research, совместно с Ливерморской национальной лабораторией им. Э. Лоуренса (Lawrence Livermore National Laboratory, LLNL) хотели не просто показать современные вычислительные способности в области гидродинамики. Схлопывающиеся пузырьки способны принести пользу в хирургии: для дробления камней в почках или разрушения раковых клеток.

Моделирование 15 000 пузырьков проводилось на платформе IBM Blue Gene/ Q, задействовав вычислительную мощность в 14,4 петафлопса.

Визуализация исследования кавитационных пузырьков:


Блог компании IBM
donmigel_62: (кот - учёный)

Новая математическая модель связывает воедино все теории о пространстве и времени

Пространственно-временной континуум


Исследователи из университета Саутгемптона (University of Southampton) совершили большой шаг в реализации проекта, целью которого является раскрытие тайн строения нашей Вселенной. Согласно информации от профессора Костаса Скендериса (Kostas Skenderis), председателя университетского общества математической физики, одним из необычных предположений из области теоретической физики является голографический принцип, означающий, что наша Вселенная может на самом деле являться чем-то виртуальным, своего рода голографической проекцией. И ученые пытаются разобраться, как именно происходит формирование основных физических законов внутри такой "голографической" Вселенной.

В работе, опубликованной на страницах онлайн-издания Physical Review D, профессором Скендерисом и доктором Марко Кальдарелли (Dr Marco Caldarelli) из университета Саутгемптона, доктором Джоан Кэмпс (Dr Joan Camps) из Кембриджского университета и доктором Блезом Гутеро (Dr Blaise Gouteraux) из Скандинавского Института теоретической физики (Nordic Institute for Theoretical Physics), Швеция, ученые обозначили связи, существующие между нормальным, плоским пространством-временем и пространством-временем, имеющим отрицательную кривизну.

Понятие "пространство-время", в нашем понимании, описывает пространство, существующее в трех измерениях и во времени, которое играет роль четвертого измерения. Все эти четыре измерения неразрывно связаны друг с другом, формируя пространственно-временной континуум, в пределах которого все указанные четыре элемента нельзя отличить друг от друга.

Понятия плоского пространства-времени и отрицательного пространства-времени описывают такую среду, в которой Вселенная не имеет границ. Ее пространство простирается бесконечно далеко в любом направлении и во времени. Кстати, гравитационные силы, производимые звездами и другими космическими объектами, лучше всего описываются математически с помощью понятия плоского пространства-времени, а отрицательное пространство-время описывает Вселенную, заполненную вакуумом с отрицательной энергией. Математические описания голографического принципа лучше всего вписываются в модель отрицательно искривленного пространства-времени.

Но на самом деле мы с вами живем только в одном пространственно-временном континууме. Поэтому профессор Скендерис разработал новую математическую модель, которая имеет поразительные общие черты и с плоским пространством-временем, и с пространством-временем, имеющим отрицательную кривизну. Последний вид пространства, однако, описан отрицательным количеством измерений, что делает это понятие весьма трудным для понимания и вне возможностей сферы нашего физического восприятия.

"Согласно голографическому принципу, на фундаментальном уровне Вселенная имеет на одно измерение меньше, чем мы ощущаем в реальной жизни, и управляется физическими законами, подобными электромагнетизму" - объясняет свою точку зрения профессор Скендерис, - "Эта идея подобно принципам, на которых создаются обычные голограммы, когда трехмерные изображения закодированы в двухмерной плоскости. В этом можно убедиться достаточно наглядно, взглянув на голографическую метку кредитной карты или другого документа. И, похоже, что вся Вселенная закодирована подобным образом".

"Наши исследования продолжаются, и мы надеемся найти еще большее количество взаимосвязей между плоским пространством-временем, отрицательным пространством-временем и голографическим принципом. Существующие теории об устройстве Вселенной следуют по пути индивидуального описания происходящих в ней процессов, ограничивая себя тем самым в строго определенных и достаточно узких рамках. Нашей главной и конечной целью является поиск того, как действительно "работает" Вселенная, независимо от используемой теории и точки зрения наблюдателя".

В октябре 2012 года профессор Скендерис заслуженно занял место среди 20 самых известных ученых в мире благодаря получению премии от международного научного фонда "Новые границы в астрономии и космологии" (New Frontiers in Astronomy and Cosmology). Полученный им грант в размере 175 тысяч долларов был выделен для поиска теоретического ответа на один из фундаметальных вопросов - "Что было началом времени и пространства?".

http://www.dailytechinfo.org/news/4866-novaya-matematicheskaya-model-svyazyvaet-voedino-vse-teorii-o-prostranstve-i-vremeni.html
donmigel_62: (кот - учёный)

Новая суперкомпьютерная модель НАСА демонстрирует процессы формирования новой массивной галактики. (видео)

Формирование галактики


Суперкомпьютерная модель, созданная и рассчитанная специалистами Лаборатории НАСА по изучению реактивного движения (NASA Jet Propulsion Laboratory, JPL) демонстрирует процессы, происходящие в молодой массивной галактике, формирующейся в момент времени, когда возраст Вселенной составлял около двух миллиардов лет. Математическая модель демонстрирует как потоки холодного космического газа, являющегося материалом для рождения новых звезд и топливом для уже существующих, "стекает" по спиральным рукавам в область ядра галактики. Попав в область, приближенную к центру галактики, этот газ преобразуется в новые молодые звезды, которые постоянно увеличивают массу формирующейся галактики.

"Формирование галактик, действительно, является хаотичным процессом" - рассказывает Кайл Стюарт (Kyle Stewart), один из ведущих ученых, принимавший участие в разработке компьютерной модели. - "Из-за этого нам потребовалось несколько месяцев работы нескольких сотен компьютерных процессоров для того, чтобы рассчитать нашу компьютерную модель и узнать как происходит процесс формирования галактик".

В относительно молодой Вселенной галактики формировались из глыб материи, связанных нитями в единую гигантскую космическую "сеть". Попадая в гравитационную ловушку скопления материи облака холодного космического газа уплотнялись до того момента, когда их плотность становилась достаточной для возникновения процессов формирования молодых звезд. Именно таким образом сформировалась наша галактика Млечного Пути и миллиарды ее звезд.



Более ранняя модель процессов формирования галактик подразумевала то, что космический газ поступал из окружающего пространства к центру галактики равномерно со всех направлений. Эти газовые облака, постепенно разогреваясь, сталкивались друг с другом, производя ударные волны, разогревающие газ еще больше. Этот процесс чем-то похож на формирование ударной волны, возникающей в момент преодоления самолетом звукового барьера, только в случае галактик скорости и энергии этих процессов несоизмеримо выше. Согласно теории такой процесс является достаточно медленным и занимает порядка 8 миллиардов лет.

Последние исследования показали противоречивость имеющейся теории в отношении небольших галактик, где космический газ не может быть нагрет до высоких температур. Таким образом появилась теория "холодного способа" формирования галактик, которая определяет то, что газ направляется к центру галактики, "стекая" по ее спиральным рукавам.

Для подтверждения истинности новой теории потребовались бы миллиарды лет наблюдений за процессами роста молодых галактик. Поэтому исследовательская команда прибегла к компьютерному моделированию на суперкомпьютерах, имеющихся в распоряжении JPL, Исследовательского центра НАСА имени Эймса и Калифорнийского университета в Ирвине. Эти суперкомпьютера произвели расчеты четырех различных моделей процессов формирования галактик, подобных нашему Млечному Пути, начиная с времени в 57 миллионов лет с момента Большого Взрыва.

Каждое моделирование начиналось с одинаковых условий и одинакового набора "компонентов" будущей галактики - водорода, гелия и темной материи. Затем математическая модель позволяла вступать в действие законам физики, создавая "галактические шедевры". Когда расчет модели заканчивался ученые анализировали полученные результаты, находя новые подсказки касательно того, как зарождающаяся галактика получает "подпитку" в виде холодного космического газа. Эти модели показали, что на самом деле перемещение потоков газа происходит быстрее, чем считалось ранее, а весь процесс формирования новой галактики занимает порядка одного миллиарда лет.


В своих математических моделях исследователи так же рассматривали влияние на процессы формирования новых галактик такого фактора, как наличие темной материи, невидимого вещества, на долю которого приходится около 85 процентов от всей материи во Вселенной. Моделирование показало, что темная материя принимает активное участие в процессе формирования галактики, вращаясь и быстро передвигаясь вдоль рукавов галактики и космических нитей, сходящихся в центре галактики.

Profile

donmigel_62: (Default)
donmigel_62

March 2014

S M T W T F S
       1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 1819202122
23242526272829
3031     

Syndicate

RSS Atom

Style Credit

Expand Cut Tags

No cut tags