donmigel_62: (кот - учёный)

FUJITSU ПРЕДСТАВИЛА ПЕРЧАТКУ ДЛЯ ПРОСТРАНСТВЕННОГО ЖЕСТОВОГО УПРАВЛЕНИЯ



Носимое устройство в форме перчатки позволяет считывать информацию по технологии NFC и осуществлять жестовое управление технологическими процессами.





Смартфоны, планшеты и другие «умные» устройства – хорошее подспорье в работе специалистов, в обязанности которых входит работа с различными приборами, панелями и индикаторами, с которых необходимо считывать те или иные данные, а затем документировать показания и принимать на их основе те или иные решения. Но на подобных рабочих местах далеко не всегда можно обеспечить «офисные» условия: работать приходится в перчатках (порой не слишком чистых), которые существенно затрудняют обращение с мобильными устройствами.





Решение проблемы – носимые устройства, способные взять на себя ряд необходимых функций, таких как считывание информации и базовое управление. В Fujitsu Laboratories разработали перчатку, оснащенную датчиком прикосновений, считывающим NFC-модулем, гироскопом и акселерометром, способную ускорить процесс и снизить вероятность ошибок при работе с различными приборами, индикаторами и т.п.

Показания считываются простым прикосновением к NFC-метке на приборе и выводятся на носимый дисплей (возможна передача данных на мобильное устройство и на удаленный сервер). При этом NFC-модуль активируется посредством датчика прикосновения, все остальное время находясь в спящем режиме. Это позволяет обойтись без громоздких аккумуляторов и при этом обеспечить около 9 часов работы устройства без подзарядки.

Простая и надежная технология распознавания жестов, разработанная Fujitsu, позволяет решать множество задач буквально мановением руки. Основная проблема пространственного жестового управления – как отличить команды от повседневных жестов. Перчатка Fujitsu активирует систему распознавания жестов только когда рука находится в положении тыльного сгибания (в сторону тыльной стороны ладони). Кисть редко принимает такое положение при решении повседневных задач, что позволяет минимизировать число ложных срабатываний. В «языке жестов», который «понимает» перчатка, всего шесть «слов»: движение вверх, вниз, вправо, влево, вращение по часовой стрелке и против неё. Этого достаточно для ввода базовых пометок, которые обычно сопровождают вносимые в журнал данные. Например, поворот по часовой стрелке может означать нормальный режим работы, а против – аварийный. Эти простейшие жесты верно распознаются в 98% случаев вне зависимости от индивидуальных особенностей моторики того, кто носит перчатку.

Коммерческий вариант системы может появиться на рынке уже в 2015 году.

По пресс-релизу Fujitsu

donmigel_62: (кот - учёный)

Кремниевые нейросети для «умных» машин



«Умные» машины, телесные и бестелесные, окружают нас во всё большей степени. В квартире — пылесос, на складе — погрузчик, в смартфонах — голосовой помощник Siri. Но для того, чтобы машины эти стали подлинно умными, им необходимо обзавестись инженерным аналогом достаточно мощного головного мозга. Причём для решения не только тех задач, которые принято связывать с человеческим интеллектом, но и тех, с которыми справляются животные, и не обязательно высшие. И вот теперь решение этой проблемы переходит в практическую плоскость.


Сначала несколько слов о мощностях нынешних компьютеров в их мобильном обличье. Как отмечают читатели, процессор смартфонов ARM Cortex выдаёт 1,5–2 гигафлопс, ну а тот ENIAC, что позволил технологии в рамках Манхэттенского проекта овладеть внутриядерными силами, мог осилить лишь 500 флопс. И этого хватило для нужд атомной программы… Мощностей же нынешних смартфонов вполне хватает для того, чтобы создать автопилот дрона («Смартфоны даруют мозги дронам»). А вот болтушка Siri зависит в своём функционировании от внешних серверов, из-за чего и впадает порой в длительные паузы…


Парадокс. Для самого что ни на есть передового научного исследования, связанного с абстрактным мышлением, хватило половины килофлопса. Гигафлопса хватает для автопилотирования дрона (подозреваю, что с лихвой хватит и для большого самолёта), связанного уже не с абстрактным мышлением, а с быстрой реакцией, равновесием и ориентацией в пространстве. А вот простейшее (то, что может любая базарная торговка или девка на завалинке, — быстро и связно трепаться) заставляет обращаться к внешним серверам…

А вот ещё критически важная для «умных» машин задача распознавания образов. С ней справляется и малый ребёнок, и лабораторный шимпанзе, и приподъездные кошки… И программное обеспечение от Google это тоже умеет, опознает лица людей и котиков. Но — требуя для этого массива из шестнадцати тысяч мощных процессоров, функционирование которых связано с весьма серьёзными энергетическими затратами, несопоставимыми с тем, кои употребляет на решение аналогичной задачи живой мозг (оценить затраты в единицах «флопс» затруднительно, ибо слишком уж велики порядки величин).

Затраты вычислительных ресурсов на эмуляцию нейросетей (логарифмическая шкала)

Затраты вычислительных ресурсов на эмуляцию нейросетей (логарифмическая шкала).

А объясняется этот парадокс историей технологий — в сопоставлении с историей человечества и живых существ. Для чего делались первые вычислительные машины? Для работы с абстрактными образами. Да, самое обычное натуральное число есть абстрактный образ. И не слишком простой. Читатель с математическим образованием — или, скорее, с интересом к этой науке — может обратиться к «Теории множеств» коллективного французского математика Николя́ Бурбаки́ и посмотреть, сколь громоздко приведённое там определение обыкновенного натурального числа 1.

Но вот эти-то абстракции, при их кажущейся простоте и доступности первокласснику, весьма могущественны. Движение небесных тел Кеплер описывал с помощью элементарной математики, а вот для того, чтобы определить наилучшую форму бочек для свойственника-бондаря ему пришлось создать основы математики высшей… И нынешние «мельницы чисел» с их гигантской производительностью не могут справиться с тем, с чем легко справляется кусочек серого вещества, неспособный сложить два и два.

Дело именно в различии первоначально поставленных задач. От живых существ беспощадная эволюция требовала выживания в реальном мире. В вычислительные машины конструктора закладывали способность совершения цепочек операций над абстрактными объектами, при всей привычности для нас являющихся плодом последовательного творчества умов ряда гениев, от Платона и Лейбница до Гильберта и фон Неймана. Причём то, что эти цепочки операций совершаются всё быстрее и быстрее, со всё большими объёмами чисел, распараллеливаемыми даже в смартфонах, преимуществ кремнию над белком не давало.

Да! Наращивание процессорных мощностей и объёмов обрабатываемых данных ключом к решению проблемы не было. И от технологии потребовалось то, чего не может сделать эволюция живых существ, являющаяся не-марковским процессом. Живое существо довольно жёстко определено прошедшими этапами развития. Инженер же может вернуться назад и начать движение от другой точки, располагая тем опытом и технологиями, которые наработал, двигаясь по предыдущему пути. Применить подходы, позволившие достичь нынешних процессорных мощностей, к нейросетям.

Соотношение сложностей биологических и кремниевых нейросетей

Соотношение сложностей биологических и кремниевых нейросетей.

Именно этим занимается нынче DARPA в рамках программы Систем нейроморфной адаптивной пластично-масштабируемой электроники (SyNAPSE). Пентагоновские деньги, скажем, выделяются командам разработчиков из HRL Laboratories, ранее известной как Hughes Research Laboratories, и родителям Watson’а из IBM Research. Команду SyNAPSE в IBM возглавляет Дхармендра С. Модха (Dharmendra S. Modha), глава группы когнитивных вычислений (Cognitive Computing) из IBM Almaden Research Center. Ну а Центр неврологических и поведенческих систем трудится под началом Нараяна Шринивазы (Narayan Srinivasa).

Нейрочип от IBM

Нейрочип от IBM.

И результаты в обоих случаях достигнуты более чем впечатляющие. Команда Модхи сейчас работает с представленным в 2011 году нейрочипом, на кристалле которого 6 000 вентилей моделируют поведение нейрона. Всего в микросхеме 256 кремниевых «нейронов», между которыми может быть установлено 262 000 «синаптических» связей. Свойства нейросети, в которую превращается кристалл в процессе программирования, и определяются этими синаптическими связями, сохраняемыми в блоке памяти.

Что нынче может этот нейрокристалл? Распознавать цифры от 0 до 9, причём даже предсказывать ту, которую только начинают писать на планшете. Играть в виртуальный настольный теннис. Водить дрон строго над двойной жёлтой, которой размечено шоссе к Альмадене… Скромно? Да, всё это умеют обычные процессоры. Но нейрочип использует для исполнения своих задач ничтожную долю вычислительных ресурсов, обычно требуемых от традиционных архитектур. А для программирования нейроморфных архитектур IBM создаёт библиотеки объектов, названных corelets: то ли ядрышки, то ли сущностишки, (от сути); не ясно, как перевести…

«Энцефалограмма» нейрочипа от HRL

«Энцефалограмма» нейрочипа от HRL.

Из этих корелетов — придётся, похоже, ввести очередной варваризм — и предполагается строить нейроморфный софт, в значительной степени моделирующий деятельность коры головного мозга. Но подход HRL ещё интересней: нейрочип, созданный командой Нараяна Шринивазы, имеет 576 искусственных нейронов. И тоже умеет играть в виртуальный настольный теннис. Но — в отличие от айбиэмовского образца, его для этого не программировали. В структуру изделия HRL Laboratories заложена возможность самостоятельного формирования синаптических связей.

В результате ему вручили виртуальную ракетку, дали ощущение виртуального мяча и не забывали стимулировать, поощрять или наказывать по результатам поведения. И в итоге всего лишь в пяти раундах нейрочип научился более чем прилично играть в пинг-понг. Причём применяя для этого всего лишь 120 нейронов! (Это к вопросу о том, насколько загружают свой мозг те, кто проводит досуг перед телевизором в обществе видеоигры. К нормальной игре в мелкий теннис ворчание автора не относится, она хороша для профилактики близорукости и развития моторики…)

В ближайших планах HRL's Center for Neural and Emergent Systems — поставить свой нейрочип на орнитоптер размером с ладонь, получивший уже имя «Бекас» — Snipe. Задача машущего полёта в авиации — одна из давнейших и смутнейших, сродни квадратуре круга. Вроде бы на некоторых режимах и для некоторых «массгабаритов» летательного аппарата он сулит заметный выигрыш по затратам энергии. Но даже комнатные модельки орнитоптеров, из сухих стебельков травы, гнутых на лампе накаливания, и тончайшей плёночки (фотоплёнка растворялась в ацетоне, а потом это выливалось на поверхность воды, откуда после застывания и снималось рамочкой) были редкостно капризны.

Машущему полёту нужно куда больше петель обратной связи, чем позволяла классическая инженерия. А теперь HRL надеется на успех! Ховард Хьюз был же изначально авиамагнатом (см. фильм-байопик «Авиатор» и фантастический «Контакт» по роману К. Сагана, где Хьюз — прототип загадочного благотворителя). Да и Пентагону, который оплачивает эти исследования (в SyNAPSE вложено уже около ста миллионов долларов), такая машинка вполне может пригодиться. Но это — частности! Куда важнее то, что на практике реализуется абсолютно новое направление ИТ.

Если вычислительные машины изначально создавались для операций с абстрактными объектами, то теперь весь гигантский потенциал ИТ-отрасли может быть использован и уже используется для нейрочипов, ориентированных на работу с объектами реального мира. По примерно тем же принципам, что функционируют живые организмы, но — без ошибок, которые неизбежно делала слепая эволюция. И такая технология имеет хорошие шансы наградить «умные» машины вполне полноценным «головным мозгом».

Михаил Ваннах

donmigel_62: (кот - учёный)

3D-принтер Thinker Thing распечатает ваши мысли

Представьте, что вы можете распечатывать объекты, просто думая о них. С недавнего времени это уже не надуманная мечта, а вполне реальная технология – по крайней мере, для клиентов чилийского стартапа Thinker Thing. Потенциал их разработки огромен, вот только технология сыровата: пока еще нельзя просто запустить 3D-принтер, закрыть глаза, вообразить летающего макаронного монстра, моряка из зефира или розового единорога (нужное подчеркнуть), заварить чай и ожидать результат – для достижения цели придется изрядно поднапрячь серое вещество.


Как известно, инженеры и дизайнеры используют 3D-принтеры уже более двух десятилетий. Совсем недавно стоимость этих девайсов упала настолько, что они стали доступны простым обывателям. Возможности кажутся бесконечными: создание еды, живых тканей, оружия и даже аккумуляторов. Революция состоялась! Ура, товарищи! Вот только большинство вендоров пока что концентрируют силы на доработке лишь аппаратной составляющей этих устройств, тогда разработке софта для 3D-принтеров уделяется намного меньше внимания. Но чилийцы решили пойти дальше и создали механизм, позволяющий юзерам раскрыть свой внутренний творческий потенциал. С его помощью люди, которые ленятся / не могут заниматься моделированием объектов для 3D-печати с помощью соответствующего ПО и не хотят скачивать готовые модели, смогут сделать то, о чем всем остальным остается лишь мечтать, получая в процессе чистый неразбавленный фан.


image

Это не птица и не самолет. Оранжевый кусок пластика, который может уместиться в вашей ладони, смахивает на конечность игрушечного тиранозавра. Возможно, выглядит он не очень впечатляюще, но факт остается фактом: это первый объект, напечатанный на 3D-принтере с помощью силы мысли.

Так как же работает шайтан-коробка Thinker Thing?
В основе системы лежат комплект программного обеспечения Emotional Evolutionary Design (EED), который позволяет 3D-принтеру интерпретировать мысли своих пользователей, и хэдсет- электроэнцефалограф за $ 300, который мониторит активность клеток головного мозга с помощью четырнадцати датчиков, контактирующих с кожей головы. Как известно, для переходов мозга из одного состояния в другое (волнение, скука, радость etc.) характерны определенные паттерны активности серого вещества. Связка EED и Emotiv EPOC успешно считывает и интерпретирует эти паттерны. Этот программно-аппаратный комплекс способен в буквальном смысле создать порядок из хаоса.

image

Процесс 3D-моделирования с помощью Emotional Evolutionary Design

image

Связка EED и Emotiv EPOC в действии

Пользователю демонстрируются рандомные формы, и система в режиме реального времени анализирует его реакцию. Софт может выделять из общей массы объекты, удостоившиеся положительной эмоциональной реакции. Понравившиеся юзеру формы будут увеличиваться в размерах на экране, в то время как остальные — сокращаться. Самые крупные формы можно сочетать между собой для создания компонентов модели. На выходе получится уникальная 3D-модель, полностью готовая к печати. Девелоперы акцентируют внимание на том, что справиться с такой системой может даже трех / четырехлетний ребенок, который еще даже не научился правильно держать карандаш в руках – не говоря уже о работе с AutoCAD (здесь чадолюбивые мамаши ликуют).

Конкуренты

Концепция проектирования моделей с помощью анализа эмоциональных реакций основана на том, что большинство людей эффективнее отбраковывают отдельные идеи из общей массы, чем создают новые идеи "с нуля", особенно если они не имеют соответствующей подготовки. Это прекрасно понимают инженеры из Корнельского университета (США), которые также создают похожую технологию.

"В настоящее время одой из самых слабых сторон 3D-печати является механизм создания контента", говорит профессор Ход Липсон, "У нас есть iPod-ы без музыки. У нас есть машины, которые могут создать практически что угодно, но мы пока еще не можем раскрыть их потенциал".

image

Эволюционное проектирование 3D-объектов на сайте EndlessForms

Студенты Липсона создали сайт EndlessForms, посетители которого могут воспользоваться довольно удобным пошаговым механизмом проектирования новых 3D-моделей. Изначально юзеру демонстрируются 15 трехмерных форм. Выбрав понравившиеся, он может их объединить, после чего появятся 15 новых формы, сочетающих в себе особенности выбранных вариантов.

Чтобы ускорить процесс, американцы решили использовать ту же идею, что и чилийцы из команды Thinker Thing. Еще в прошлом году они использовали хэдсет Emotiv EPOC для создания 3D-моделей, но столкнулись с проблемой: в определенный момент девайс переставал нормально функционировать, так как испытуемые уставали и сигнал становился неточным. Многократная калибровка проблему не решила. Исследователи отмечают, что эта проблема характерна практически для всех дешевых электроэнцефалографов. Череп гасит слабые
электрические импульсы от нейронов мозга, при этом электрические сигналы от находящихся рядом мышц лица могут оказаться сильнее. Можно использовать более точные магнитно-резонансные томографы, но такой подход делает готовые устройства для 3D-печати слишком дорогими и
непрактичными.

image

Тот самый хэдсет Emotiv EPOC

Поэтому Липсон сотоварищи решили превратить в интерфейс ввода глаза пользователя. Созданная ими система трекинга может определить
формы, которым пользователь уделяет наибольшее внимание. Загвоздка в том, что без ЭЭГ-хэдсета невозможно определить реакцию пользователя на фигуру. Поэтому оба устройства нужно использовать в тандеме. Будем надеяться, что в будущем доработанные системы сканирования мозга и трекинга глаз заменят старую-добрую мышь при создании 3D-моделей.

Особо пытливым умам предлагаю ознакомиться с промо-роликом данного проекта. Мясо начинается со второй минуты. Хорошего просмотра!
P. S. А пока разработчики бьются над созданием инновационного интерфейса для создания 3D моделей, передовые модели 3D принтеров ведущих марок можно в деталях рассмотреть и заказать ЗДЕСЬ.
donmigel_62: (кот - учёный)
Оригинал взят у [livejournal.com profile] postnauka в ScienceHub #08: Нейроинтерфейсы
Психофизиолог Александр Каплан о расшифровке активности мозга, его содержании и взаимодействии между мозгом и внешним устройством
donmigel_62: (кот - учёный)

ОБЕЗЬЯНИЙ МОЗГ УПРАВЛЯЕТ ВИРТУАЛЬНЫМИ РУКАМИ

Нейрокомпьютерный интерфейс, реализованный с помощью мозговых имплантатов, позволил обезьянам управлять парой конечностей в виртуальном пространстве.


В прошлом году ученые объявили о впечатляющих результатах разработки интерфейса мозг-компьютер и продемонстрировали что пациент способен управлять движением манипулятора посредством вживленного в мозг микрочипа. Ранее подобные эксперименты проводились и на обезьянах.
Новая работа показывает, что подобные принципы можно будет реализовать и для контроля двух роботизированных рук одновременно. Массив микроэлектродов, вживленный учеными в мозг обезьяны, способен считывать сигналы около 500 нейронов одновременно – рекордного на данный момент количества.
Две подопытных обезьяны были обучены ориентироваться в виртуальной реальности, сначала – управляя компьютерными «руками», берущими различные «предметы», с помощью джойстика, а затем – посредством нейрокомпьютерного интерфейса.
Исследования показали, что обезьяны включают «аватар» в мысленный образ своего тела, управляя виртуальными руками. Также ученые выявили определенные модели нейронной активности, которые проявляются только при выполнении действий двумя руками одновременно, и отсутствуют при движениях только одной конечностью.
По пресс-релизу Duke University Health System
donmigel_62: (кот - учёный)

Ученые создали первый прямой интерфейс мозг-мозг, связав через Интернет двух людей

Интерфейс мозг-мозг


Исследователи из Вашингтонского университета (University of Washington) продемонстрировали разработанный ими неинвазивный (не требующий хирургического вмешательства) прямой интерфейс, способный через Интернет связать мозги двух людей, независимо от разделяющего их расстояния. Данное достижение можно считать первым шагом в разработке технологий дистанционного управления сознанием или первой реализацией технологии "электронной телепатии".

В основе разработки данного интерфейса лежат результаты исследований ученых из университета Дюка (Duke University), которые связали через Интернет мозги двух грызунов, одного, находящегося в США, и второго, находящегося в Бразилии. Несмотря на столь значительное расстояние эти двое животных успешно справились совместными усилиями с решением непростых логических задач. Позже, используя подобный подход, исследователи из Гарвардского продемонстрировали интерфейс между мозгом человека и мозгом животного, позволяющий человеку дистанционно управлять движениями частей тела животного.



В данном случае, Рэджеш Рао (Rajesh Rao, профессор информационных технологий Вашингтонского университета, использовал свои мысли для того, чтобы управлять действиями Андреа Стукко (Andrea Stucco), научного сотрудника того же университета. В ходе эксперимента Рэджеш Рао одевал на голову сетку ЭЭГ-датчиков, которые считывают электрические сигналы деятельности его мозга. Над головой его оппонента, Андреа Стукко, была установлена сложная электромагнитная катушка, поле которой способно оказывать возбуждающее воздействие на определенные участки головного мозга, в частности на участки коры левого полушария, которые управляют движениями рук человека.

Структура системы интерфейса


Во время эксперимента Рэджеш Рао мысленно, не делая физических движений, двигал своей правой рукой, нажимая на кнопку огня виртуального оружия в компьютерной игре. Специальное программное обеспечение транслировало сигналы электроэнцефалограммы его мозга в последовательность команд, которая затем в режиме реального времени через подключение к Интернету передавалась в мозг его оппонента. Андреа Стукко в это время находился в другом помещении, глядя на монитор, на котором разворачивались действия вышеупомянутой компьютерной игры. Его рука совершенно непреднамеренно перемещалась и нажимала на клавишу "пробел" в моменты, когда Рэджеш Рао нажимал на такую же, только воображаемую клавишу.

То, что продемонстрировали нам ученые из Вашингтонского университета, является достаточно простой системой, позволяющей обмениваться лишь примитивными сигналами мозга. Помимо этого, эксперимент проходил в идеальных условиях, а используемое оборудование не было подключено к внешним информационным сетям, выходящим за пределы лаборатории, чем обеспечивалась безопасность эксперимента.

"Наш интерфейс пока еще имеет однонаправленный характер, поток информации движется только в одном направлении, от одного мозга к другому" - рассказывает Рэджеш Рао, - "Следующим нашим шагом будет создание равноправного двустороннего интерфейса, посредством которого мозги двух людей смогут обмениваться информацией напрямую".

В дальнейшем исследователи планируют на основе разработанных ими технологий создать реальную систему, которая позволит людям, которые не могут говорить и двигаться, наладить общение с окружающими, а люди с более богатой фантазией сразу могут представить себе технологию, позволяющую дистанционное управление телом человека против его воли и желаний. К счастью, такой сценарий пока еще невозможен, но долго ли будет сохраняться такое положение дел?

http://www.popsci.com/technology/article/2013-08/watch-researcher-control-another-professors-mind-across-campus

Profile

donmigel_62: (Default)
donmigel_62

March 2014

S M T W T F S
       1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 1819202122
23242526272829
3031     

Syndicate

RSS Atom

Style Credit

Expand Cut Tags

No cut tags