2 мин. чтения
2/29/2024 11:04:02 AM

Опрос о федеративном обучении: перспектива из многопартийных вычислений

Article Preview Image Таксономия федеративного обучения с точки зрения многопартийных вычислений.Кредит: границы информатики (2023).Doi: 10.1007/s11704-023-3282-7

Федеративное обучение (FL) стало популярной парадигмой машинного обучения, которая позволяет нескольким владельцам данных обучать модели совместно, не делясь своими необработанными наборами данных.Он имеет потенциал для широкого спектра аналитических приложений на конфиденциальные данные.

Например, федеративное обучение применялось к медицинским анализу больших данных, такого как прогноз заболевания и диагноз без выявления частной медицинской информации пациентов для сторонних услуг.Он также использовался банками и страховыми компаниями для обучения точной модели машинного обучения для оценки риска или рекомендации клиента.

Федеративное обучение обеспечивает совместное обучение модели, не обмениваясь наборами данных с необработанными наборами данных между владельцами данных путем разложения процедуры обучения на локальную подготовку и агрегацию модели.Документ, описывающий опрос по федеративному обучению, был опубликован в журнале Frontiers of Computer Science.

Каждый владелец данных выполняет локальную подготовку в своем собственном разделе данных и только передает только промежуточные результаты, например, градиенты для агрегации модели на централизованном сервере или других владельцах данных.Федеративное обучение с центральным сервером для координации модельного агрегации называется централизованным FL, в то время как агрегация модели в одноранговой манере известна как децентрализованная FL.

Централизованный FL налагает высокую рабочую нагрузку на вычисление на сервер, тогда как децентрализованный FL включает в себя чрезмерную связь между сверстниками.Следовательно, полуцентрализованный FL недавно был предложен для сбалансировки затрат на вычисление и коммуникации путем проведения кластерной или иерархической агрегации модели.

Мы сосредоточены на федеративном обучении с гарантиями конфиденциальности.Обратите внимание, что обмен промежуточными результатами (например, градиенты), а не сырые наборы данных, все еще может протекать конфиденциальность.Соответственно, дополнительные методы являются обязательными для безопасной связи и вычислений во время федеративного обучения.

Особый интерес представляет многопартийные вычисления, общая и фундаментальная категория методов, которая принимает многопартийные частные входы для агрегированных вычислений без раскрытия личных данных каждой стороны.Общие методы многопартийных вычислений включают искаженную цепь, селективный обмен, гомоморфное шифрование, дифференциальную конфиденциальность и так далее.

Последние годы стали свидетелями роста повышения конфиденциальности федеративного обучения с помощью многопартийных вычислений.

Больше информации: Fengxia Liu et al., Обследование федеративного обучения: перспектива из многопартийных вычислений, границы информатики (2023).Doi: 10.1007/s11704-023-3282-7

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Четкие рекомендации для синтетических данных, необходимы для обеспечения прозрачности, подотчетности и справедливости

4/14/2024 · 2 мин. чтения

Четкие рекомендации для синтетических данных, необходимы для обеспечения прозрачности, подотчетности и справедливости

DeepMind разрабатывает Safe, приложение на основе ИИ, которое может проверить LLMS на фактах

3/30/2024 · 2 мин. чтения

DeepMind разрабатывает Safe, приложение на основе ИИ, которое может проверить LLMS на фактах