Форум Future of Privacy опубликовал Biometric Data Framework
Форум «Будущее конфиденциальности» опубликовало основу для биометрических правил данных для иммерсивных технологий во вторник.
В отчете FPF-структура риска для данных, связанных с телом в иммерсивных технологиях, обсуждается лучшие практики сбора, использования и передачи данных, связанных с телом, между организациями.
Организации, предприятия и частные лица могут включать наблюдения FPF в качестве рекомендаций и основу для содействия безопасной, ответственной политике расширенной реальности (XR).Это связано с объектами, требующими больших объемов биометрических данных в иммерсивных технологиях.
Кроме того, те, которые следуют руководящим принципам отчета, могут применять основу для документирования причин и методологий для обработки биометрических данных, соответствовать законам и стандартам, оценивать риски, связанные с конфиденциальностью и безопасностью, а также этические соображения при сборе данных с устройств.
Структура применяется не только к организациям, связанным с XR, но и к любому учреждению, использующим технологии, зависящие от обработки биометрии.
Джеймсон Спивак, старший политический аналитик, Immersive Technologies, и Даниэль Беррик, политический консультант, соавтор.
Чтобы понять, как обрабатывать личные данные, организации должны определить потенциальные риски конфиденциальности, обеспечить соблюдение законов и реализовать лучшие практики для повышения безопасности и конфиденциальности, пояснил FPF.
Согласно первой стадии, организации могут сделать это по:
Компании будут анализировать применимые правовые рамки во втором этапе, чтобы обеспечить соответствие.Это будет включать в себя компании, которые собирают, используют или передают «данные, связанные с телом», затронутые законами о конфиденциальности США.
Чтобы соответствовать, структура рекомендует, чтобы организации «понимали индивидуальные права и деловые обязательства», применимые к «существующим комплексным и отраслевым законам о конфиденциальности», говорится в сообщении.
Организации также должны анализировать новые законы и правила, а также то, как они будут влиять на «практику данных на основе тела».
На третьем этапе компании, организации и учреждения должны выявлять и оценивать риски для других.Это объяснило, что это включает в себя людей, сообщества и общества, которые они служат.
В нем говорилось, что риски и вред конфиденциальности могут быть получены из данных, «используемых или обработанных конкретными способами или переданы определенным сторонам», - говорится в сообщении.
Он добавил, что юридическое соответствие «может быть недостаточно, чтобы смягчить риски».
Чтобы максимизировать безопасность, компании могут выполнить несколько этапов для защиты данных, таких как активное выявление и снижение рисков, связанных с практикой данных.
Это будет включать влияние на следующее:
После оценки политики использования данных группы организации могут оценить справедливость и этику, лежащую в основе своей практики данных на основе выявленных рисков, объяснил он.
Наконец, FPF -структура рекомендовала реализацию лучших практик на четвертом этапе, которая включала «количество юридических, технических и политических гарантий, которые могут использовать организации.
Это добавило, что это поможет организациям продолжать обновлять «законодательные и нормативные требования, минимизировать риски конфиденциальности и обеспечить, чтобы иммерсивные технологии использовались справедливо, этично и ответственно».
Структура рекомендует организациям преднамеренно реализовать передовые практики путем всестороннего «касания всех частей жизненного цикла данных и устраняя все соответствующие риски».
Организации также могут совместно реализовать лучшие практики, используя те, которые «разработаны в консультации с междисциплинарными командами в организации».
Они будут включать в себя юридический продукт, инженерию, доверие, безопасность и заинтересованные стороны, связанные с конфиденциальностью.
Организации могут защитить свои данные
Следуя этой лучшей практике, организации могут оценить передовые практики и соответствующим образом выравнивать их как последовательную стратегию.После этого они могли бы оценить лучшие практики на постоянной основе для поддержания эффективности.
Эта новость появилась сразу после того, как Европейский союз продвинулся вперед с его Законом об ИИ, который, как утверждает ФПФ, будет иметь «широкое экстратерриториальное воздействие».
В настоящее время ведется переговоры с государствами-членами, законодательство направлено на защиту граждан от вредного и неэтичного использования решений на основе ИИ
Политическое соглашение было достигнуто на #AIACT ЕС, который окажет широкое экстратерриториальное воздействие.Если вы хотите получить представление о ключевых юридических последствиях регулирования, присоединяйтесь к @kate_deme для углубленного обучения FPF завтра в 11 часов утра по восточному времени. : https://t.co/wevgddsvrh 🔗
- Форум будущего конфиденциальности (@futureofprivacy) 11 декабря 2023 г.
Организация предлагает руководство, опыт и обучение для компаний после того, как Закон готовится к воплощению силы.Это привело к одному из самых больших изменений в политике конфиденциальности данных с момента введения общего регулирования защиты данных (GDPR) в мае 2016 года.
Европейская комиссия заявила, что хочет «регулировать искусственный интеллект (ИИ)», чтобы обеспечить улучшение условий для использования и развертывания технологии.
Он сказал в заявлении,
«В апреле 2021 года Европейская комиссия предложила первую нормативно -правовую базу ЕС для ИИ.В нем говорится, что системы ИИ, которые можно использовать в разных приложениях, анализируются и классифицируются в соответствии с риском, который они представляют пользователям.Различные уровни риска будут означать более или менее регулирование.После утверждения это будут первые в мире правила по искусственному искусству »
Согласно Комиссии, она направлена на утверждение Закона к концу года.
Эта новость появилась, когда несколько организаций входят в свежие альянсы, чтобы решить постоянные опасения по поводу использования виртуальной, дополненной и смешанной реальности (VR/AR/MR), ИИ и других новых технологий.
Например, Platforms и IBM запустили Massive Alliance United для разработки лучших практик для искусственного интеллекта, биометрических данных и помочь создать нормативные рамки для технологических компаний по всему миру.
Глобальный AI Alliance проводит более 30 организаций, компаний и частных лиц со всего мирового технологического сообщества и включает в себя такие технологические гиганты, как AMD, Huggingface, Cern, The Linux Foundation и другие.
Кроме того, такие организации, как Вашингтон, округ Колумбия, Ассоциация XR, Европейский альянс XR4europe, Форум по глобально признанным металлическим стандартам и Gatherversтехнологии.
Нашли ошибку в тексте? Напишите нам.