Исследования показывают, что люди могут наследовать предвзятости ИИ
Кредит: CC0 Общественный домен
Удивительные результаты, достигнутые системами ИИ, которые могут, например, удерживать LRNч в качестве человека, действительно дали этой технологии изображение высокой надежности.
Все больше и больше профессиональных областей реализуют инструменты на основе искусственного интеллекта для поддержки принятия решений специалистами для минимизации ошибок в своих решениях.Однако эта технология не без рисков из -за предвзятости в результатах ИИ.Мы должны учитывать, что данные, используемые для обучения моделей ИИ, отражают прошлые человеческие решения.Если эти данные скрывают шаблоны систематических ошибок, алгоритм ИИ изучит и воспроизводит эти ошибки.Действительно, обширные доказательства указывают на то, что системы ИИ наследуют и усиливают уклоны человека.
Наиболее актуальным открытием исследований Висенте и Матута является то, что может также возникнуть противоположный эффект: что люди наследуют смещения ИИ.То есть не только ИИ наследует его предубеждения от человеческих данных, но и люди могли бы также унаследовать эти предубеждения от ИИ с риском попасть в опасный цикл.Scientific Reports опубликовал результаты исследований Висенте и Матута.
В серии трех экспериментов, проведенных исследователями, добровольцы выполнили задачу по медицинской диагностике.Группе участников помогли предвзятую систему ИИ (она демонстрировала систематическую ошибку) во время этой задачи, в то время как контрольная группа была без посторонней помощи.ИИ, задача медицинской диагностики и болезнь были фиктивными.Вся настройка была симуляцией, чтобы избежать вмешательства в реальные ситуации.
Участники, помогающие предвзятую систему ИИ, допустили те же ошибки, что и ИИ, в то время как контрольная группа не допустила этих ошибок.Таким образом, рекомендации ИИ повлияли на решения участника.
Тем не менее, наиболее значительным выводом исследования было то, что после взаимодействия с системой ИИ эти добровольцы продолжали имитировать свою систематическую ошибку, когда они переключались на выполнение задачи диагностики без посторонней помощи.Другими словами, участники, которым впервые помог предвзятую ИИ, повторили его предвзятость в контексте без этой поддержки, тем самым показав унаследованное предвзятость.Этот эффект не наблюдался для участников контрольной группы, которые с самого начала выполнили задачу.
Эти результаты показывают, что предвзятая информация по модели искусственного интеллекта может оказать негативное влияние на человеческие решения.Обнаружение последствия эффекта смещения ИИ указывает на необходимость дальнейших психологических и междисциплинарных исследований взаимодействия с искусством ИИ-человеком.
Кроме того, необходимо также регулирование, основанное на фактических данных для гарантирования справедливого и этического ИИ, учитывая не только технические особенности ИИ, но и психологические аспекты сотрудничества ИИ и человека.
Больше информации: Люсия Висенте и др., Люди наследуют предубеждения искусственного интеллекта, научные отчеты (2023).Doi: 10.1038/s41598-023-42384-8
Нашли ошибку в тексте? Напишите нам.