Обращение к AI «галлюцинации» и улучшение алгоритмов обнаружения аномалий в промышленных системах
Общая методология исследования.Кредит: Материалы 10-го семинара по обеспечению безопасности киберфизической системы ACM (2024).Doi: 10.1145/3626205.3659147
Значительные шаги в решении проблемы «Галлюцинаций» ИИ и повышения надежности алгоритмов обнаружения аномалий в критических национальных инфраструктурах (CNIS) были сделаны учеными, базирующимися в Школе компьютерных наук Бристоля.
Недавние достижения в области искусственного интеллекта подчеркивали потенциал технологии в обнаружении аномалий, особенно в рамках данных датчиков и приводов для CNIS.Тем не менее, эти алгоритмы ИИ часто требуют обширного времени обучения и борются за то, чтобы определить конкретные компоненты в аномальном состоянии.Кроме того, процессы принятия решений ИИ часто непрозрачны, что приводит к опасениям по поводу доверия и подотчетности.
Чтобы помочь бороться с этим, команда принесла ряд мер для повышения эффективности, включая:
Эти достижения не только повышают эффективность и надежность систем искусственного интеллекта в CNIS, но и гарантируют, что человеческие операторы остаются неотъемлемой частью процесса принятия решений, повышая общую ответственность и доверие.
Доктор Сарад Венугопалан, соавтор исследования, объяснил: «Люди учатся путем повторения в течение более длительного периода времени и работают в течение более коротких часов, не подвергаясь ошибкам. Вот почему в некоторых случаях мы используем машины, которые могут выполнятьТе же задачи за долю времени и с уменьшенной частотой ошибок.
«Однако эта автоматизация, включающая кибер и физические компоненты, и последующее использование ИИ для решения некоторых проблем, представленных автоматизацией, рассматривается как черный ящик. Это вредно, потому что это персонал, использующий рекомендацию ИИ, которая проводитсяответственность за принятые ими решения, а не самого ИИ.
«В нашей работе мы используем объясняемый ИИ, для повышения прозрачности и доверия, поэтому персонал, использующий ИИ
Это исследование является частью тезиса MSC Mathuros Kornkamon под наблюдением доктора Шридхара Адепу.Документ опубликован в процессе 10-го семинара по безопасности киберфизической системы ACM.
Доктор Адепу добавил: «Эта работа обнаруживает, как Waxai революционизирует обнаружение аномалий в промышленных системах с объяснимым искусственным интеллектом, интегрируя XAI, операторы человека получают четкую информацию и повышенную уверенность в обращении с инцидентами безопасности в критической инфраструктуре».
More information: Kornkamon Mathuros et al, WaXAI: Explainable Anomaly Detection in Industrial Control Systems and Water Systems, Proceedings of the 10th ACM Cyber-Physical System Security Workshop (2024). DOI: 10.1145/3626205.3659147
Нашли ошибку в тексте? Напишите нам.