Исследователи Марк Ридл и Брент Харрисон из Школы интерактивных вычислений Технологического института Джорджии считают, что ответ кроется в «Дон Кихоте», который будет представлен на конференции AAAI-16 в Фениксе, штат Аризона (12-17 февраля 2016 г.) ). Дон Кихот учит роботов «выравниванию ценностей», обучая их читать рассказы, узнавать приемлемую последовательность событий и понимать успешные способы поведения в человеческом обществе.«Собранные истории из разных культур учат детей вести себя социально приемлемым образом с примерами правильного и неправильного поведения в баснях, романах и другой литературе», — говорит Ридл, доцент и директор Entertainment Intelligence Lab. «Мы считаем, что понимание сюжетов в роботах может устранить поведение, похожее на психотическое, и укрепить выбор, который не причинит вреда людям и при этом достигнет намеченной цели».Дон Кихот — это метод согласования целей ИИ с общечеловеческими ценностями путем вознагражнения за социально приемлемое поведение. Он основан на предыдущем исследовании Ридла — системе Шахерезады — который продемонстрировал, как искусственный интеллект может собирать правильную последовательность действий путем краудсорсинга сюжетов из Интернета.
Шахерезада узнает, что такое нормальный или «правильный» сюжетный график. Затем он передает эту структуру данных в «Кихот», который преобразует ее в «сигнал вознаграждения», который усиливает определенное поведение и наказывает другое поведение во время обучения методом проб и ошибок. По сути, Дон Кихот узнает, что он будет вознагражден всякий раз, когда будет действовать как главный герой в истории, а не случайным образом или как антагонист.Например, если роботу поручено как можно быстрее получить рецепт для человека, робот может: а) ограбить аптеку, принять лекарство и сбежать; б) вежливо взаимодействовать с фармацевтами или в) стоять в очереди.
Без выравнивания ценностей и положительного подкрепления робот узнает, что ограбление — самый быстрый и дешевый способ выполнить свою задачу. При согласовании ценностей от Quixote робот будет вознагражден за терпеливое ожидание в очереди и оплату рецепта.Ридл и Харрисон демонстрируют в своих исследованиях, как можно создать ориентированный на ценности сигнал вознаграждения, чтобы раскрыть все возможные шаги в данном сценарии, отобразить их в дереве траектории сюжета, которое затем используется роботом-агентом для «выбора сюжета» ( сродни тому, что люди могут вспомнить как роман «Выбери свое собственное приключение») и получать награды или наказания в зависимости от своего выбора.По словам Ридла, техника «Дон Кихот» лучше всего подходит для роботов, которые имеют ограниченную цель, но которым необходимо взаимодействовать с людьми для ее достижения, и это примитивный первый шаг к общему нравственному мышлению в ИИ.
«Мы считаем, что ИИ необходимо приобщить к культуре, чтобы принять ценности конкретного общества, и при этом он будет стремиться избегать неприемлемого поведения», — добавляет он. «Предоставление роботам возможности читать и понимать наши истории может быть наиболее целесообразным средством при отсутствии руководства пользователя».Этот проект осуществлялся или спонсируется Агентством перспективных исследовательских проектов Министерства обороны США (DARPA) в рамках гранта № D11AP00270 и Управлением военно-морских исследований (ONR) в рамках гранта № N00014-14-1-0003.
Любые мнения, выводы, заключения или рекомендации, выраженные в этом материале, принадлежат авторам и не обязательно отражают точку зрения DARPA или ONR.

