6 мин. чтения
2/13/2024 2:00:02 AM

Нет никаких доказательств того, что ИИ можно контролировать

Article Preview Image Кредит: Unsplash/CC0

В ходе обширного обзора не существует никаких доказательств того, что ИИ можно безопасно контролировать, и без доказательств того, что ИИ может контролироваться, его не следует разрабатывать, предупреждает исследователь.

Несмотря на признание того, что проблема контроля ИИ может быть одной из наиболее важных проблем, с которыми сталкивается человечество, она остается плохо изученной, плохо определенной и плохо изученной, объясняет доктор Роман В. Ямпольский.

В своей книге «ИИ: необъяснимый, непредсказуемый, неконтролируемый эксперт по безопасности ИИ д -р Ямпольский» рассматривает способы, которыми ИИ может резко изменить общество, не всегда в наших интересах.

Он объясняет: «Мы сталкиваемся с почти гарантированным событием с потенциалом для создания экзистенциальной катастрофы. Неудивительно, что многие считают это самой важной проблемой, с которой когда -либо сталкивались человечество. Результатом может быть процветание или вымирание, и судьба вселенной виситв балансе “.

Доктор Ямпольский проведен обширный обзор научной литературы ИИ и заявляет, что он не нашел доказательств того, что ИИ может быть безопасно контролироваться, и даже если есть какой -то частичный контроль, им было бы недостаточно.

Он объясняет: «Почему так много исследователей предполагают, что проблема контроля искусственного интеллекта решается? Насколько нам известно, нет никаких доказательств, нет доказательств. Прежде чем приступить к стремлению построить контролируемый ИИ, важно показатьчто проблема решается.

«Это, в сочетании со статистикой, которая показывает развитие Superintelligence AI, является почти гарантированным событием, показывают, что мы должны поддержать значительные усилия по безопасности AI».

Он утверждает, что наша способность производить интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его.После комплексного обзора литературы он предполагает, что передовые интеллектуальные системы никогда не могут быть полностью контролируемыми и поэтому всегда будут представлять определенные уровни риска независимо от пользы, которые они предоставляют.Он считает, что это должно быть целью сообщества ИИ, чтобы минимизировать такой риск, максимизируя потенциальную выгоду.

ИИ (и суперинтеллигентность) отличается от других программ благодаря его способности изучать новые поведения, корректировать его производительность и действовать полуавтономно в новых ситуациях.

Одна из проблем, связанных с созданием AI «безопасным», заключается в том, что возможные решения и сбои из -за суперинтеллигентного существования, поскольку оно становится более способным, являются бесконечными, поэтому существует бесконечное количество проблем безопасности.Простое предсказание проблем не может быть возможным, и смягчение против них в патчах безопасности может быть недостаточно.

В то же время, объясняет Ямпольский, ИИ не может объяснить, что он решил, и/или мы не можем понять объяснение, данное, поскольку люди не достаточно умны, чтобы понять реализованные концепции.Если мы не понимаем решения ИИ и у нас есть только «черный ящик», мы не можем понять проблему и снизить вероятность будущих несчастных случаев.

Например, системам ИИ уже поручено принимать решения в области здравоохранения, инвестиций, занятости, банковского дела и безопасности, чтобы назвать несколько.Такие системы должны быть в состоянии объяснить, как они достигли своих решений, особенно для того, чтобы показать, что они не имеют смещения.

Ямпольский говорит: «Если мы привыкли принять ответы ИИ без объяснения, по сути, рассматривать его как систему Oracle, мы не сможем сказать, начинает ли он предоставлять неправильные или манипулятивные ответы».

Поскольку способность ИИ увеличивается, его автономия также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, и повышение автономии является синонимом снижения безопасности.

Например, для суперинтеллигенности, чтобы избежать приобретения неточных знаний и удалять все предвзятость от своих программистов, он может игнорировать все такие знания и заново открыть/доказывать все с нуля, но это также удалило бы любые предвзяты за человечество.

«Менее интеллектуальные агенты (люди) не могут постоянно контролировать более интеллектуальных агентов (ASI). Это не потому, что мы можем не найти безопасного дизайна для суперинтелтинга в огромном пространстве всех возможных дизайнов, это потому, что такой дизайн не возможно, его не существует. Супертеллигентность не восстает, она неконтролируется с самого начала », - объясняет он.

«Человечество сталкивается с выбором, становимся ли мы как дети, заботимся, но не контролируем, или мы отвергаем, что имели полезного опекуна, но остаемся ответственными и свободными».

Он предполагает, что может быть найдена равновесная точка, в которой мы жертвуем некоторыми возможностями в обмен на некоторый контроль, за счет обеспечения системы с определенной степенью автономии.

Одним из предложений управления является разработка машины, которая точно следует за человеческими порядками, но Ямпольский указывает на потенциал для противоречивых порядков, неверного толкования или злонамеренного использования.

Он говорит: «Люди, находящиеся под контролем, могут привести к противоречивым или явно злобным порядкам, в то время как ИИ в контроле означает, что люди не являются».

Если ИИ действовал больше как консультант, он мог бы обойти проблемы с неверным толкованием прямых орденов и потенциалом для злоупотреблений, но автор утверждает, что для того, чтобы ИИ был полезным советником, он должен иметь свои превосходные ценности.

«Большинство исследователей безопасности ИИ ищут способ согласовать будущую суперинтеллигенность ценностям человечества. Аи, выравниваемый стоимостью.То, что человек, явно приказывающий системе ИИ, чтобы сделать что -то, может получить «нет», в то время как система пытается сделать то, что человек на самом деле хочет. Человечество либо защищено, либо уважаемо, но не оба », - объясняет он.

Чтобы свести к минимуму риск искусственного интеллекта, он говорит, что он нуждается в его изменении с помощью «отмены», ограниченных, прозрачных и простых для понимания на человеческом языке.

Он предполагает, что все ИИ должно быть классифицировано как контролируемые или неконтролируемые, и ничего не должно быть снято со таблицы и ограниченных мораторий, и даже частичные запреты на определенные типы технологии ИИ следует учитывать.

Вместо того, чтобы быть обескураженным, он говорит: «Скорее, это причина для большего количества людей, чтобы копать глубже и усилить усилия, а также финансирование исследований безопасности и безопасности искусственного интеллекта. Мы никогда не получаем 100% безопасного ИИ, но мы можемСделайте искусственное устройство безопаснее, пропорционально нашим усилиям, что намного лучше, чем ничего не делать. Нам нужно использовать эту возможность с умом ».

Больше информации: Роман В. Ямпольский, ИИ, ИИ: необъяснимый, непредсказуемый, неконтролируемый (2024).Doi: 10.1201/9781003440260

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Использование идей из теории игр для повышения надежности языковых моделей

5/16/2024 · 6 мин. чтения

Использование идей из теории игр для повышения надежности языковых моделей

Системы ИИ уже квалифицированы в обмане и манипулировании людьми

5/11/2024 · 6 мин. чтения

Системы ИИ уже квалифицированы в обмане и манипулировании людьми