X
Нажмите Нравится
iLenta

Google анонсировала 5 правил безопасности для развития искусственного интеллекта

24 июня 2016, 22:32 | Roter [733]
Исследователи изучили известные проблемы при разработке ИИ и выделили 5 основных правил безопасности в этой сфере.

В исследованиях принимали участие специалисты Google, OpenAI, Стэнфордского и Калифорнийского университетов. По их мнению, при разработке искусственного интеллекта нужно учитывать следующие моменты:

  • Избегать негативные побочные эффекты: мы должны гарантировать, что система не начнет ради своих целей разрушать окружающие ее предметы, то есть, если роботу нужно ускорить уборку, не разобьет ли он вазу.
  • Избегать хитростей в корыстных целях: не начнет ли робот прятать мусор, дабы не убирать его.
  • Обеспечить гибкий надзор: здесь речь идет о том, чтобы ИИ уважал и правильно распознавал и оценивал важные для человека аспекты. К примеру, не задавал раздражающие нас вопросы.
  • Организовать возможность безопасного исследования: обучение ИИ ни в коем случае не должно вызывать негативных последствий. К примеру, робот может самостоятельно усовершенствовать качество уборки, но не вытирать электроприборы или розетки мокрой тряпкой.
  • Организовать устойчивость к смене деятельности: должна быть гарантия того, что ИИ в незнакомой ситуации поведет себя адекватным и нужным образом. Например, робот, обученный убирать на заводе, не сможет безопасно убирать в офисе. 

Источник: phoneArena

Система OrphusОшибка в тексте статьи?   Выделите ошибку  и нажмите Ctrl+Enter
Комментарии
Это интересно:

ОБЗОРЫ

НОВОСТИ И СОБЫТИЯ

УСТРОЙСТВА И АКСЕССУАРЫ

ИНСТРУКЦИИ, СОВЕТЫ И СЕКРЕТЫ