Промышленное производство
Промышленный Интернет вещей | Промышленные материалы | Техническое обслуживание и ремонт оборудования | Промышленное программирование |
home  MfgRobots >> Промышленное производство >  >> Industrial Internet of Things >> Интернет вещей

Создание ответственного и заслуживающего доверия ИИ

Скотт Золди из FICO

По мере того, как использование ИИ становится все более распространенным, ученых и организаций, занимающихся данными, просто «выкладываются на все 100%» будет недостаточно. Скотт Золди, эксперт по искусственному интеллекту в FICO объясняет, что с ростом числа сторонников ИИ ответственный ИИ станет ожиданием и стандартом.

В последние годы данные и ИИ стали широко использоваться во множестве отраслей для информирования и формирования стратегий и услуг, от здравоохранения и розничной торговли до банковского дела и страхования. И совсем недавно ИИ вышел на первый план в отслеживании борьбы с коронавирусом.

Однако растущие объемы данных, генерируемых в цифровом виде, в сочетании с необходимостью автоматизированного принятия решений на основе ИИ, создают новые проблемы для предприятий и правительств, с растущим вниманием к аргументам, лежащим в основе алгоритмов принятия решений ИИ.

По мере того, как ИИ отдаляет процесс принятия решений от лиц, на которых оно влияет, решения могут казаться более бессердечными, возможно, даже неосторожными. Организации нередко ссылаются на данные и алгоритмы в качестве оправдания непопулярных решений, и это может быть поводом для беспокойства, когда дело касается ошибок уважаемых лидеров.

Вот некоторые примеры:расистский и оскорбительный онлайн-чат-бот Microsoft в 2016 году, система набора персонала Amazon с искусственным интеллектом, которая игнорировала кандидатов-женщин в 2018 году, и автомобиль Tesla, который разбился на автопилоте после того, как в 2019 году принял грузовик за приостановленный дорожный знак.

Помимо возможности принятия неверных решений, существует также проблема предвзятости ИИ. В результате были введены новые правила, призванные защитить права потребителей и внимательно следить за развитием ИИ.

Основы ответственного ИИ

Организациям необходимо внедрить надежный ИИ прямо сейчас. Для этого они должны укрепить и установить свои стандарты с помощью трех столпов ответственного ИИ:объяснимости, подотчетности и этики. С их помощью организации любого типа могут быть уверены, что они принимают правильные цифровые решения.

Объяснимость :Бизнес, полагающийся на систему принятия решений AI, должен обеспечить наличие алгоритмической конструкции, которая фиксирует отношения между переменными решения, чтобы прийти к бизнес-решению. Имея доступ к этим данным, компания может объяснить, почему модель приняла такое решение - например, пометила транзакцию как высокий риск мошенничества. Это объяснение затем может быть использовано специалистами-аналитиками для дальнейшего исследования последствий и точности решение.

Подотчетность :Модели машинного обучения должны быть построены правильно, с упором на ограничения машинного обучения и тщательное рассмотрение используемых алгоритмов. Технологии должны быть прозрачными и совместимыми. Внимательность при разработке моделей гарантирует, что решения будут иметь смысл, например, оценки соответствующим образом адаптируются с увеличением риска.

Помимо объяснимого ИИ, существует концепция скромного ИИ - обеспечение того, чтобы модель использовалась только на примерах данных, аналогичных данным, на которых она была обучена. Если это не так, модель может быть ненадежной, и следует перейти на альтернативный алгоритм.

Этика :Основываясь на объяснимости и подотчетности, этические модели должны быть проверены, и любая дискриминация должна быть устранена. Объяснимые архитектуры машинного обучения позволяют извлекать нелинейные отношения, которые обычно скрывают внутреннюю работу большинства моделей машинного обучения. Эти нелинейные отношения необходимо тестировать, поскольку они усваиваются на основе данных, на которых была обучена модель, и эти данные слишком часто неявно полны социальных предубеждений. Этические модели обеспечивают явную проверку и устранение предвзятости и дискриминации.

Силы, обеспечивающие ответственный ИИ

Построение ответственных моделей ИИ требует времени и тщательной работы, при этом постоянная тщательная проверка имеет решающее значение для обеспечения непрерывного ответственного ИИ. Эта проверка должна включать регулирование, аудит и защиту.

Правила важны для установления стандартов поведения и верховенства закона при использовании алгоритмов. Однако в конечном итоге нормативные требования либо соблюдаются, либо нет, и для демонстрации соответствия нормативным требованиям требуется аудит.

Демонстрация соблюдения нормативных требований требует наличия основы для создания моделей и процессов моделирования, подлежащих аудиту. Эти аудиторские материалы включают в себя процесс разработки модели, используемые алгоритмы, тесты на обнаружение предвзятости и демонстрацию использования разумных решений и выставления оценок. Сегодня аудиты процесса разработки моделей проводятся бессистемно.

Внедряются новые системы аудита разработки моделей на основе блокчейнов для обеспечения соблюдения и регистрации неизменных стандартов разработки моделей, методов и результатов тестирования. Кроме того, они используются для записи подробных сведений об утверждениях специалистов по данным и руководства на протяжении всего цикла разработки модели.

Заглядывая в будущее, организаций, «старающихся изо всех сил» с данными и искусственным интеллектом, будет недостаточно. С появлением сторонников ИИ и реальными страданиями, которые причиняются неправильными результатами систем ИИ, ответственный ИИ скоро станет ожиданием и стандартом во всем мире и во всем мире.

Организации должны обеспечить соблюдение ответственного ИИ прямо сейчас, а также укрепить и установить свои стандарты объяснимости, подотчетности и этики ИИ, чтобы гарантировать ответственное поведение при принятии цифровых решений.

Автор - доктор Скотт Золди, главный аналитик FICO .

Об авторе

Доктор Скотт Золди - главный аналитик FICO. Находясь в FICO, Скотт отвечал за создание 110 авторских патентов, 56 из которых были выданы, а 54 находятся на рассмотрении. Скотт активно участвует в разработке новых аналитических продуктов и приложений для анализа больших данных, многие из которых используют новые инновации потоковой аналитики, такие как адаптивная аналитика, совместное профилирование и самокалибровка аналитики. Скотт является членом двух советов директоров:Software San Diego и Cyber ​​Center of Excellence. Скотт получил докторскую степень. по теоретической и вычислительной физике Университета Дьюка.


Интернет вещей

  1. Термины и концепции цифровой памяти
  2. Переменные C# и (примитивные) типы данных
  3. Преобразование типов Python и приведение типов
  4. Создание роботов с Raspberry Pi и Python
  5. Создание союзников и обеспечение успеха
  6. Гиперконвергенция и вторичное хранилище:Часть 2
  7. Обеспечение безопасности в устаревшей инфраструктуре
  8. Почему большие данные и построение аналитики никуда не денутся:часть 1
  9. Интернет вещей и ваше понимание данных
  10. Интернет вещей и искусственный интеллект продвигаются вперед в технологиях