Исследователи выделяют этические проблемы для развития будущих помощников ИИ
Умные помощники следующего поколения, вероятно, будут разработаны, чтобы предвидеть потребности и потребности пользователя, а также помочь и опосредовать социальные взаимодействия между пользователями и их сети поддержки.Кредит: Технологический институт Грузии
Большинство людей используют технологии голосового помощника, такие как Alexa или Google Assistant для составления списков и быстрого обновления погоды.Но представьте себе, если бы эти технологии могли бы сделать гораздо больше - разобрать встречи с врачом, напомнить кому -то принимать свои лекарства, управлять своим графиком (зная, какие события принимают приоритет), и не только прочитать рецепт, но и создать напоминания о покупке ингредиентов - без пользователянеобходимо пожелать.Если бы умный помощник мог использовать искусственный интеллект, чтобы лишить некоторую когнитивную нагрузку для общих задач, это может помочь пожилым людям сохранить их независимость и автономию.
Умные помощники следующего поколения еще не на рынке, но исследования, необходимых для их создания.Это включает в себя усилия по разработке интеллектуальных помощников, которые являются проактивными, то есть система могла бы предвидеть потребности и потребности пользователя, а также помогать и опосредовать социальные взаимодействия между пользователями и их сети поддержки.Но благодаря разработке систем, которые стремятся улучшить способности пожилых людей по мере того, как они испытывают снижение когнитивных средств, возникает широкий спектр этических проблем.
Исследователи из Института совместной помощи NSF AI и отзывчивого взаимодействия для сетевых групп (AI-Caring) увидели необходимость наметить некоторые из этих вопросов заранее, с надеждой, что дизайнеры будут рассматривать их при разработке следующего поколения умных помощников.Статья команды «Этические проблемы в социально поддерживающих интеллектуальных помощниках для пожилых людей» были опубликованы в журнале IEEE Transactions по технологиям и обществу.
«Мы пытаемся предоставить ландшафт этических проблем, которые дизайнеры должны учитывать задолго до того, как продвинутые интеллектуальные ассистентные системы появятся в доме человека», - сказал Джейсон Боренштейн, профессор этики и директор программ по этике исследований выпускников в школегосударственной политики и Управления аспирантуры и постдокторского образования в Georgia Tech.«Если дизайнеры не продумывают эти проблемы, то семья может создать относительную систему, пойти домой и поверить, что их родственник безопасен и безопасен, когда они не могут быть».
По словам исследователей, основанных на ИИ, когда человек полагается на систему ИИ, этот человек становится уязвимым для системы уникальными способами.Для людей с возрастными когнитивными нарушениями, которые могут использовать эту технологию для сложных форм помощи, ставки становятся еще выше, а уязвимость возрастает, когда их здоровье снижается.Системы, которые не выполняют правильно, могут поставить благосостояние пожилого взрослого на значительный риск.
«Если система совершает ошибку, когда вы полагались на это за что -то доброкачественное - как помогать вам выбрать фильм, который вы будете смотреть - это не имеет большого значения», - сказал Алекс Джон Лондон, ведущий автор газеты и K & LГейтс профессор этики и вычислительных технологий в Университете Карнеги -Меллона.«Но если вы полагались на это, чтобы напомнить вам о том, чтобы вы приняли лекарство, и это не напоминает вам или говорит вам принимать неправильное лекарство, это было бы большой проблемой».
По словам исследователей, для разработки системы, которая действительно расставляет приоритеты благополучию пользователя, дизайнеры должны рассмотреть такие проблемы, как доверие, опора, конфиденциальность и меняющиеся когнитивные способности человека.Они также должны убедиться, что система поддерживает цели пользователя, а не цели внешней стороны, такой как член семьи, или даже компания, которая может стремиться к продаже продуктов пользователю.
Подобная система потребует нюансированной и постоянно развивающейся модели пользователя и его предпочтений, включающих данные из различных источников.Для умного помощника эффективно выполнять свою работу, ему может потребоваться поделиться некоторой информацией основного пользователя с другими объектами, которые могут подвергнуть пользователя риску.
Например, пользователь может захотеть, чтобы офис врача знал, что он хотел бы назначить врача.Но в зависимости от человека, они могут не хотеть, чтобы эта информация была разделена со своими детьми или только с одним ребенком, а не другим.По словам исследователей, дизайнеры должны рассмотреть методы обмена личной информацией, которая также поддерживает способность пользователя контролировать ее.
Заверленным доверием и доверием способности системы также являются важными вопросами, которые следует рассмотреть.Заполнение доверия происходит, когда люди проецируются на технологические способности, которых у него нет, что может подвергнуть их риску, когда система не может доставить таким образом, как они ожидали.В соответствии с доверием также может быть проблема, потому что, если система может помочь человеку с важной задачей, и человек решит не использовать систему, его также могут остаться без помощи.
«Цель нашего анализа состоит в том, чтобы указать на проблемы для создания действительно вспомогательных систем ИИ, чтобы они могли быть включены в дизайн ИИ с самого начала», - сказал Лондон.«Это также может помочь заинтересованным сторонам создать ориентиры для производительности, которые отражают эти этические требования, а не пытаются решить этические проблемы после того, как система уже разработана, разработана и протестирована».
По словам Боренштейна, когда интеллектуальные помощники создаются и вводятся в дома, благополучие и цели основного пользователя должны быть главной проблемой.
«Дизайнеры, безусловно, благополучие, но все мы можем извлечь выгоду из обмена идеями в разных дисциплинах и от разговора с людьми с разными взглядами на такие технологии»,-сказал Боренштейн.«Это всего лишь одна часть этой головоломки, которая может надеяться, что он сообщит процесс проектирования».
Больше информации: Alex John London и др., Этические проблемы в социально поддерживающих интеллектуальных помощниках для пожилых людей, транзакции IEEE по технологиям и обществу (2023).Doi: 10.1109/tts.2023.3237124
Нашли ошибку в тексте? Напишите нам.