Промышленное производство
Промышленный Интернет вещей | Промышленные материалы | Техническое обслуживание и ремонт оборудования | Промышленное программирование |
home  MfgRobots >> Промышленное производство >  >> Industrial Internet of Things >> Интернет вещей

Взгляд на горизонт в поисках «умных» морских изменений в IoT

Мы все были охвачены шумихой вокруг «умных вещей» Интернета вещей и надвигающимся прибытием наших роботов-повелителей, поэтому мы стараемся минимизировать головокружительное чудо метаморфозы отзывчивых и интеллектуальных вычислений, которое надвигается на нас.

В течение многих лет сообщество Интернета вещей твердило, что если мы действительно хотим, чтобы «вещи» представляли ценность, они не могут быть глупыми. Первая волна связала все, и мы в этом продвинулись. Следующий шаг - сделать «вещи» умнее.

Существует множество коммерческих решений, которые не оправдывают обещаний по автоматизации нашего пути к более продуктивной жизни. И опасения по поводу правильной защиты наших подключенных устройств по-прежнему серьезно. Но действительно произошел революционный скачок в вычислительных возможностях и достижимой функциональности. Убийственный вариант использования Интернета вещей не за горами, но прежде чем определять, что это такое, и описывать, как это будет проявляться, я думаю, что важно в общих чертах определить, как мы к этому пришли.

«Троица»

Влияние движения с открытым исходным кодом на экспоненциальный скачок в технологическом прогрессе невозможно свести к минимуму. Алгоритмы и вычислительная инфраструктура, управляющие «умными» вещами - IoT, искусственный интеллект и возможности машинного обучения - существуют уже несколько десятилетий. Любой сотрудник АНБ может вам это сказать.

Теперь разница в доступности для масс. Эти технологии когда-то ревностно охранялись, были закрыты от внешнего мира и были доступны только в грозных учреждениях, обладающих огромными ресурсами как в персонале, так и в вычислительных мощностях. Открытый исходный код все изменил. Новые вещи больше не нужно создавать с нуля, что ускоряет цикл инноваций. Широко распространенный доступ к базам знаний и программному обеспечению позволяет любому, кто так склонен опираться на плечи гигантов и использовать мудрость толпы.

Творческий взрыв, вызванный открытыми исходными кодами, помог породить облако, которое является вторым движением, открывающим новую эру вычислений. Освободившись от физических ограничений и затрат на отдельные серверные стеки и локальное хранилище, наступила эпоха «приложений для всего», и появилась возможность для сбора и потребления больших данных по требованию. Как только мы смогли масштабировать вычислительные мощности, не ограниченные географией, наши технологии стали мобильными, и мечта о меньших и все более мощных устройствах, передающих колоссальные объемы информации, стала реальностью.

Большие данные являются источником жизненной силы современных вычислений. Но данные не работают ничего и само по себе не имеет значения. Это подводит нас к третьему направлению «интеллектуальной» революции:аналитике. Типы расширенных вычислений, с которыми люди сталкиваются сейчас в повседневной жизни - распознавание голоса, распознавание изображений, беспилотное вождение и автомобили с помощниками водителя - основаны на концепциях, которые выросли из аналитики и погони за моделями прогнозной аналитики, что было в моде. всего несколько лет назад.

Обескураживающая реализация прогнозной аналитики заключалась в том, что для обучения эффективных моделей нужны как огромные объемы данных, так и множество специалистов по данным, которые будут постоянно создавать, поддерживать и улучшать модели данных. Мы снова столкнулись с препятствиями, связанными с доступом и ограниченными ресурсами.

Итак, мы подошли к настоящему, где все меняется в новом направлении. Теперь разница в том, что нам не нужно набирать армию специалистов по данным для построения моделей; мы научили наши программы устранять некоторые из этих препятствий для себя.

Врожденный интеллект

Наши системы, основанные на искусственном интеллекте, особенно системы глубокого обучения, теперь могут получать миллионы и миллионы обучающих наборов, обучаться за дни / часы и непрерывно повторно обучать по мере поступления новых данных. Инструменты с открытым исходным кодом и облачные вычисления по-прежнему важны и развиваются, и мы по-прежнему передаем огромное количество данных для выполнения молниеносного анализа, но наши программы теперь включают ИИ в качестве движка, чтобы стать «умнее».

Опыт из самых разных компьютерных областей сконцентрировался, чтобы наделить программы ранее невообразимыми возможностями. Парадокс заключается в том, что по мере того, как облако становится все более мощным и дешевым, интеллектуальная стратегия Интернета вещей заключается в перемещении большей части первой линии обработки входа из облака на периферию. Это служит двум целям:для принятия решений на устройстве без необходимости вмешательства в облако и для доставки пограничных шаблонов и аналитики в облако для быстрой аналитики на втором этапе. Крошечные движки ИИ теперь могут выполнять анализ почти в реальном времени на периферийных устройствах и «вещах» размером не больше спичечной коробки. И по мере того, как эти точки вычислительной мощности становятся все более обычным явлением в обычных объектах - интеллектуальных маршрутизаторах и шлюзах, автономных транспортных средствах, устройствах медицинского мониторинга в реальном времени - их потенциальные возможности расширяются в геометрической прогрессии.

Искусственный интеллект на грани

На заре Интернета вещей (он же M2M) основное внимание уделялось передаче данных в облако, когда это возможно. Файловые журналы FTP каждую ночь были в моде. Когда на сцену вышла компания General Electric с «промышленным Интернетом», все заговорили о передаче данных в реальном времени в реальном времени. Это был большой скачок по сравнению с FTP, но люди относились к периферийным устройствам как к просто «вещам», передающим данные в облако для аналитики. Сейчас мы находимся в эпицентре экспоненциального разворота этого мышления. Требования реального времени меняют парадигму. Облако теперь переходит в роль поддержки Интернета вещей и аналитики второго уровня, а обработка данных переносится на периферию.

Например, мы работали с компанией, разрабатывающей устройство для медицинского мониторинга нового поколения. Первоначально мы предполагали, что с помощью такого небольшого устройства мы будем отправлять необработанные данные с устройства в облако для анализа. Но это не то, чего желали, и не то, что произошло. Компания хотела, чтобы аналитика была на мониторе. Они хотели, чтобы аналитика и обнаружение шаблонов происходили непосредственно на устройстве, чтобы выполнять действия на устройстве, и только «интеллектуальные» (в отличие от необработанных) данных отправлялись в облако. Модель резко отличалась от стандартных промышленных операций M2M - где все было бы подключено, и пакеты данных, поступающие из всех источников, собирались и обрабатывались в определенное время в каком-то центральном репозитории.

Вся цель подключения сейчас - получить мгновенные точные результаты в точке входа для немедленных ответов. Даже низкая задержка, связанная с «традиционной» облачной обработкой сотен тысяч, если не миллионов и миллиардов устройств, не так эффективна для пограничной аналитики в реальном времени, как при использовании этой новой архитектуры. В некоторых случаях вы можете уменьшить объем данных в 1000 раз, просто отправив аналитические данные и шаблоны вместо необработанных данных в облако.

Мы больше не занимаемся глупыми устройствами для сбора информации; нам нужно, чтобы они делали больше, чем просто курировали. Они должны обладать искусственным (и естественным) интеллектом - способными выполнять распознавание образов и аналитику в своих крошечных движках. Они передают эти результаты в облако для других целей. По мере того, как этот идеал распространяется, расширяются и возможные приложения.

Как прекрасно воплощено в примере с автономным автомобилем, эта модель двойного пограничного / облачного анализа дает точные результаты в реальном времени, которые можно постоянно и автоматически уточнять, сравнивая с постоянно растущими массивами данных. таким образом производя ценную полезную информацию и стимулируя продуктивную деятельность. Еще год назад я бы позвонил Б.С. на этом идее широко распространенной интеграции IoT и AI - но периферийные вычисления и AI действительно вырвались из лаборатории в наш мир. Это даст результаты, которых мы никогда раньше не видели.

Убийственные варианты использования IoT проявляются в действительно интеллектуальных периферийных устройствах - в решениях, специально созданных для конкретных проблем или задач, а затем связанных между собой и подчиняющихся шаблонам, выходящим за рамки их первоначального применения. По мере того, как все более и более умные и интеллектуальные «вещи» включаются в нашу повседневную жизнь и действуют на границах наших взаимодействующих сетей, мы увидим, как вещи выходят за рамки простого соединения и переходят в активное воплощение интеллекта. Действительно умная штука.

Эта статья подготовлена ​​в сотрудничестве с Greenwave Systems.

Автор - вице-президент и архитектор инженерных систем в Greenwave Systems, где он руководит разработкой периферийной визуальной аналитики и среды обнаружения шаблонов в реальном времени AXON Predict. Он имеет более чем 25-летний опыт работы с корпоративными системами и передовыми решениями визуальной аналитики.


Интернет вещей

  1. Интеллектуальные данные:следующий рубеж в Интернете вещей
  2. Интернет вещей:лекарство от роста расходов на здравоохранение?
  3. Перспективы развития промышленного Интернета вещей
  4. Возможность интеграции визуальных данных с IoT
  5. Цифровые двойники могут быть интеллектуальным преимуществом для Интернета вещей в производственном секторе…
  6. Три основных проблемы подготовки данных IoT
  7. Оперативный мозг:новая парадигма интеллектуального управления данными в промышленном IoT
  8. Готова ли ваша система к IoT?
  9. Демократизация Интернета вещей
  10. Максимизация ценности данных IoT