Логотип журнала Вестник Московского Университета. Серия 14. Психология.
ISSN 0137-0936 (Print)
ISSN 2309-9852 (Online)
En Ru
ISSN 0137-0936 (Print)
ISSN 2309-9852 (Online)
Социально-психологический подход в изучении взаимодействия Человек-ИИ: Доверие искусственному интеллекту в принятии экономических решений

Социально-психологический подход в изучении взаимодействия Человек-ИИ: Доверие искусственному интеллекту в принятии экономических решений

Аннотация

Актуальность. Искусственный интеллект активно внедряется в экономическую жизнь страны в контексте цифровой экономики. Особенности принятия экономических решений с опорой на программы, в основе которых лежит искусственный интеллект становятся исключительно актуальным направлением исследований социальной психологии.

Целью исследования было выявление особенностей принятия экономических решений с опорой на рекомендации, полученные с использованием технологии искусственного интеллекта.

Методы. Исследование проходило в два этапа: интервью и эксперимент.

Выборка. Выборка первого этапа составила 8 человек (4 мужчины и 4 женщины, возраст 18–45). На втором этапе выборка составила 289 человек (48 мужчин и 241 женщина), возраст 18–25 лет.

Результаты. На первом этапе были сформулированы возможные факторы доверия и недоверия программам на основе искусственного интеллекта, в том числе в контексте экономических решений.

На втором этапе был проведен эксперимент, где участникам предлагалось сыграть в симулятор фондовой биржи. В игре была опция обращения к экономическому советнику. У экспериментальной группы советником выступала программа на основе искусственного интеллекта, у контрольной — человек. Было проанализировано 5652 экономических решения участников с точки зрения степени риска этих решений.

Выводы. 1. Внесение рекомендации в процесс принятия экономического решения оказывает значимое влияние на готовность рисковать ресурсом. 2. В случае согласия с рекомендацией, если источником рекомендации выступала программа, основанная на технологии искусственного интеллекта, то готовность рисковать была в среднем выше. 3. Подобный эффект может объясняться спецификой ситуации принятия экономического решения: задача является достаточно формальной, время на решение задачи ограничено и ситуация принятия решения сопровождается высокой долей неопределенности последствий этого решения.

Литература

1. Аверкин А. Н., Гаазе-Рапопорт М. Г., Поспелов Д. А., Толковый словарь по искусственному интеллекту. М.: Радио и связь, 1992. С. 256. 2. Журавлев А.Л., Нестик Т.А. Социально-психологическая детерминация готовности личности к использованию новых технологий// Психологический журнал. 2018. Т. 39. №5. С. 5–14. 3. Журавлев А.Л., Нестик Т.А. Социально-психологические последствия внедрения новых технологий: перспективные направления исследований// Психологический журнал. 2019. Т. 40. №5. С. 35–47. 4. Купрейченко А.Б. Психология доверия и недоверия. Litres, 2021. 5. Купрейченко А.Б. Доверие и недоверие технике и социотехническим системам: постановка проблемы и обоснование подхода к исследованию // Ученые записки ИМЭИ. 2012. Т. 2. № 1. C. 126–137. 6. Нестик Т. А.. Искусственный интеллект как когнитивный протез. Трансформация образов будущего // Образовательная политика. 2019. Т.4. № 80. С. 104–117. 7. Солдатова Г.У., Нестик Т.А. Отношение к интернету среди интернет-пользователей: технофобы и технофилы // Вестник Московского государственного областного университета. Серия: Психологические науки. 2016. №1. С. 54–61. 8. Хорошилов Д.А., Мельникова О.Т. Метод тематического анализа в изучении представлений о женском лидерстве // Организационная психология. 2020. Т. 10. №. 3. С. 85–99. 9. Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A. & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115. 10. Cadwalladr, C., & Graham-Harrison, E. (2018). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach. The guardian, 17, 22. 11. Colquitt, J. A., Scott, B. A., & LePine, J. A. (2007). Trust, trustworthiness, and trust propensity: a meta-analytic test of their unique relationships with risk taking and job performance. Journal of applied psychology, 92(4), 909. 12. Dwyer, D. B., Falkai, P., & Koutsouleris, N. (2018). Machine learning approaches for clinical psychology and psychiatry. Annual review of clinical psychology, 14, 91-118. 13. Fridman, L., Mehler, B., Xia, L., Yang, Y., Facusse, L. Y., & Reimer, B. (2017). To walk or not to walk: Crowdsourced assessment of external vehicle-to-pedestrian displays. arXiv preprint arXiv:1707.02698. 14. Longoni C., Bonezzi A., Morewedge C. K. (2019) Resistance to medical artificial intelligence. Journal of Consumer Research, 46(4), pp.629-650. 15. McCarthy, J. (2007). What is artificial intelligence? [Electronic resource]. http://faculty.otterbein.edu/dstucki/inst4200/whatisai.pdf 16. Searle, J. R. (1980). Minds, brains, and programs. Behavioral and brain sciences, 3(3), 417-424. 17. van der Werff, L., Legood, A., Buckley, F., Weibel, A., & de Cremer, D. (2019). Trust motivation: The self-regulatory processes underlying trust decisions. Organizational Psychology Review, 9(2-3), 99-123.

Поступила: 21.03.2022 13:25:10

Принята к публикации: 02.06.2022

Дата публикации в журнале: 31.10.2022

Ключевые слова: Искусственный интеллект; экономические решения; доверие технологии; экономические поведение; эксперимент; взаимодействие человека и ИИ

Номер 3, 2022