4 мин. чтения
5/16/2023 2:00:00 PM

Реакция людей на несправедливый ИИ на примере тетриса

ALT Источник: CC0 Public Domain

Эксперимент, в котором два человека играют в модифицированную версию тетриса показал, что игроки, которые получают меньше ходов, воспринимают другого игрока как менее симпатичного, независимо от того, распределяет ли ходы человек или алгоритм.

«Мы ожидали, что люди, работающие в команде, будут заботиться, если с ними несправедливо обращается другой человек или ИИ», — сказал Мальте Юнг, доцент кафедры информатики в Корнельском колледже вычислительной техники и информационных наук Энн С. Бауэрс, чья группа проводила исследование.

Большинство исследований алгоритмической справедливости сосредоточены на алгоритме или самом решении, но Юнг стремился исследовать отношения между людьми, затронутыми решениями.

«Мы начинаем видеть множество ситуаций, в которых ИИ принимает решения о том, как ресурсы должны быть распределены между людьми», — сказал Юнг. «Мы хотим понять, как это влияет на то, как люди воспринимают друг друга и ведут себя по отношению друг к другу. Мы видим все больше и больше доказательств того, что машины вмешиваются в то, как мы взаимодействуем друг с другом».

Юнг и Клаур провели более раннее исследование, в котором робот выбирал, какому человеку дать блок, и изучал реакцию каждого человека на решения машины о распределении.

«Мы заметили, что каждый раз, когда робот, казалось, предпочитал одного человека, другой расстраивался», — сказал Юнг, директор лаборатории «Роботы в группах». «Мы хотели изучить это дальше, потому что думали, что по мере того, как машины, принимающие решения, становятся все большей частью мира — будь то робот или алгоритм — как это заставляет человека себя чувствовать?»

Из-за времени, необходимого для проведения экспериментов и анализа данных с использованием физического робота, Юнг и Клаур почувствовали, что есть лучший и более эффективный способ изучения этого эффекта. Именно тогда на сцену вышел тетрис, первоначально выпущенный в 1984 году и долгое время являвшийся полезным инструментом для исследователей, стремящихся получить фундаментальное представление о человеческом познании, социальном поведении и памяти.

«Когда дело доходит до распределения ресурсов, — сказал Клэр, — оказывается, что тетрис — это не просто игра, это мощный инструмент для понимания сложной взаимосвязи между распределением ресурсов, производительностью и социальной динамикой».

Используя программное обеспечение с открытым исходным кодом, Клэр, ныне научный сотрудник Йельского университета, разработал версию тетриса для двух игроков, в которой игроки манипулируют падающими геометрическими блоками, чтобы складывать их, не оставляя промежутков до того, как блоки сложатся в верхнюю часть экрана. Версия Клэра, Co-Tetris, позволяет двум людям (по одному) работать вместе для завершения каждого раунда.

«Распределитель» — либо человек, либо ИИ, который был передан игрокам, — определяет, какой игрок делает каждый ход. Юнг и Клаур разработали свой эксперимент таким образом, чтобы у игроков было либо 90% ходов (условие «больше»), либо 10% («меньше»), либо 50% («равные»).

Исследователи обнаружили, как и ожидалось, что те, кто получал меньше поворотов, остро осознавали, что их партнер получал значительно больше. Но они были удивлены, обнаружив, что чувства по этому поводу были в значительной степени одинаковыми, независимо от того, кто распределял: человек или ИИ.

Одно особенно интересное открытие: когда распределение выполнялось искусственным интеллектом, игрок, получающий больше ходов, видел своего партнера менее доминирующим, но когда распределение выполнялось человеком, восприятие доминирования не влияло.

Результатом этих решений является то, что исследователи назвали «поведением машинного распределения» — аналогично установленному явлению «поведения распределения ресурсов», наблюдаемому поведению, которое люди демонстрируют на основе решений о распределении. Юнг сказал, что поведение машины при распределении — это «концепция, согласно которой существует это уникальное поведение, которое возникает в результате того, что машина принимает решение о том, как что-то распределяется».

Исследователи также обнаружили, что справедливость не приводит автоматически к лучшему игровому процессу и производительности. Фактически, равное распределение очередей приводило, в среднем, к худшему результату, чем неравное распределение.

«Если сильный игрок получает большинство блоков, — сказал Клэр, — команда будет работать лучше. И если один человек получит 90%, в конечном итоге он станет лучше, чем если бы два средних игрока разделили блоки».

Оригинал статьи: Houston Claure et al, The social consequences of Machine Allocation Behavior: Fairness, interpersonal perceptions and performance, Computers in Human Behavior (2022). DOI: 10.1016/j.chb.2022.107628 🔗

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Бесконечная игра - как ИИ создаст новую категорию игр

7/22/2023 · 4 мин. чтения

Бесконечная игра - как ИИ создаст новую категорию игр

Инструкция по использованию нейросети KoalaGPT в Unreal Engine

7/17/2023 · 4 мин. чтения

Инструкция по использованию нейросети KoalaGPT в Unreal Engine