×

Модель двунаправленного доверия для прогнозирования доверия человека роботу и определения роботом своего искусственного доверия человеку при выполнении задачи. Предоставлено: Азеведо-Са и др.

Представьте, что в вашей команде есть робот. И звать его, допустим, Вертер (привет, Алиса!). Он странно смеётся и не менее странно ходит, но со многими задачами справляется куда лучше ваших живых подчинённых. Со многими, но не со всеми. Перед любым коллективом то и дело возникают ранее не встречавшиеся вызовы, требующие нетривиальных решений и даже некоторого творчества. Однако найти общее в двух простых знакомых опытах может не только человек, а совместить в нечто новое отчасти умеют и машины (алгоритмы ИИ уже создают материалы и детали механизмов куда лучше нас). И тут перед вами, как руководителем, встаёт вопрос: кому – человеку или роботу – доверить выполнение новой, доселе невиданной, задачи.

Озаботилась этой дилеммой и команда учёных из Мичиганского Университета. Чтобы облегчить этот непростой выбор, они разработали двунаправленную модель, позволяющую предсказать оправданность оказанного людям или машинам доверия в ситуациях, предполагающих сотрудничество человека и робота. Представленная в журнале IEEE Robotics and Automation Letters модель повысить надёжность и эффективность распределения задач между различными членами команды.

«Было проведено много исследований, направленных на то, чтобы понять, почему люди должны или не должны доверять роботам, но, к сожалению, мы знаем гораздо меньше о том, почему роботы должны или не должны доверять людям, – заявляет Эбер Азеведо-Са, аспирант Института Робототехники и один из исследователей. – Ведь в настоящей совместной работе доверие должно идти в обе стороны. Помня об этом, мы хотели создать роботов, которые могли бы взаимодействовать и укреплять доверие к людям или другим агентам, подобно паре коллег, работающих вместе».

Когда мы работаем с кем-то, то – осознавая это или нет – наблюдаем за коллегами, пытаясь лучше понять на что они способны. Чтобы работа была плодотворной, мы должны не только знать какие задачи им по плечу, а в каких лучше подстраховать, но и уметь предположить их возможности решить необычные вопросы. Таким образом и устанавливается взаимопонимание.

«Здесь в игру вступает доверие: вы укрепляете доверие к своему коллеге при выполнении некоторых задач, но не при выполнении других задач, – поясняет Азеведо-Са. – То же самое происходит и с вашим коллегой, который доверяет вам в одних задачах, но не в других».

В рамках своих поисков исследователи попытались найти и воспроизвести сложный логический процесс, посредством которого люди распознают, исполнение каких именно задач может или не может быть доверено компьютерным системам. Моделирующие это алгоритмы способны представлять доверие как человека, так и робота. Это важный момент: модель может прогнозировать не только степень доверия людей к ней, но и то, насколько они сами заслуживают её доверия в выполнении данной задачи.

«Одно из больших различий между доверием человека и робота заключается в том, что люди могут иметь способность хорошо выполнять задачу, но им нужна добросовестность и увлечённость выполнением этой задачи, – говорит учёный. – Например, сотрудник-человек может быть способен хорошо выполнять задачу, но не приходить на работу, когда он должен это делать (т. е. при отсутствии честности) или просто не заботиться о том, чтобы хорошо выполнять свою работу (т. е. при отсутствии интереса). Таким образом, робот должен учитывать это при оценке доверия к человеку, в то время как человеку нужно учитывать лишь способен ли робот хорошо выполнять задачу».

Разработанная модель даёт общее представление о возможностях потенциального исполнителя. Эта оценка может включать информацию о способностях, целостности и других подобных факторах, присущих объекту, а также учитывать требования задания, для которого подбирается исполнитель. Затем характеристики кандидатов ещё раз сравниваются с требованиями задачи и друг с другом.

Как легко догадаться, под заслуженным доверием понимается вывод системы, по которому агент считается более чем способным выполнить предстоящую задачу. С другой стороны, если навыки сотрудника кажутся недостаточными для особенно сложного задания, доверие модели становится низким. Однако дискриминации, дурной репутации и предвзятости со стороны ИИ опасаться не стоит. «Вердикт» недоверия – равно как и кредит доверия – величина динамичная, и не является незыблемой, утверждённой раз и навсегда. Всё почти как у людей.

«Эти представления возможностей агента также могут меняться со временем, в зависимости от того, насколько хорошо агент выполняет поставленные перед ним задачи, – поясняет Азеведо-Са. – Такое представление агентов и задач с точки зрения возможностей и требований является преимуществом, потому что оно явно фиксирует, насколько сложна задача, и позволяет сопоставить эту сложность с возможностями различных агентов».

В отличие от более ранних моделей для вычисления коэффициента оправданности доверия, представленный исследователями алгоритм применим, как мы уже говорили, и к людям, и к роботам. Но по-настоящему сильное отличие не в этом. Когда группа Азеведо-Са оценивала своё детище, было обнаружено, что доверительные прогнозы оказались гораздо надёжнее, чем у других существующих моделей.

«Предыдущие подходы пытались предсказать передачу доверия, оценивая сходство задач на основе их словесного описания, – поясняют случившееся исследователи. – Эти подходы представляли собой большой первый шаг вперёд для моделей доверия, но у них были некоторые проблемы. Например: задачи «взять карандаш» и «взять кита» имеют очень похожие описания, но на самом деле они очень разные».

По сути выходило, что если у робота получилось подобрать или схватить карандаш, то более ранние подходы к выяснению приемлемости аванса доверия автоматически предполагали, что тому же роботу можно будет доверить захват и других предметов, даже гораздо более крупных – вроде кита. Однако модель, разработанная героями данной статьи, сумеет избежать этой ошибки. Дело в том, что представление задач с точки зрения их требований позволяет новому алгоритму различать разные объекты и делать более точные выводы о потенциале достижения роботом искомого результата.

Что же касается потенциалов данного достижения вообще, то тут достаточно сказать слово «фантастика». В тысячах фильмов и книг люди общаются и работают с роботами рука об руку. Чего стоит только TARS – славный ИИ-персонаж драмы «Интерстеллар» – или, например, Эндрю из «Двухсотлетнего человека», где машина выступает в роли и прислуги, и друга, и даже творца. В общем, уже можно быть вполне уверенным, что новая двунаправленная модель представляется лакомым кусочком чуть ли не для всего многообразии сфер и условий совместной деятельности человека и робота. Это повышает надёжность распределения задач между членами команд, в составе которых есть не только люди.

«Мы хотели бы в конечном счёте применить нашу модель для решения проблемы распределения задач, о которой мы упоминали ранее, – надеется Азеведо-Са. – Другими словами, если робот и человек работают вместе, выполняя набор задач, кому следует назначить каждую задачу? В будущем эти агенты, вероятно, смогут договориться о том, какие задачи следует назначить каждому из них, но их мнение будет в основном зависеть от их доверия друг к другу. Таким образом, мы хотим исследовать, как мы можем использовать нашу модель доверия для распределения задач между людьми и роботами».

 


 

АРМК, по материалам Science X.