Чатботы иногда все делают правильно. Не все думают, что проблема галлюцинации ИИ исправляется
Текст со страницы чатгпта на веб-сайте Openai отображается на этой фотографии, в Нью-Йорке, 2 февраля 2023 года.сделать их более правдивыми.Кредит: AP Photo/Richard Drew, File
Проведите достаточно времени с Chatgpt и другими чат -ботами искусственного интеллекта, и им не займет много времени, чтобы произносить ложь.
Описанный как галлюцинация, конфуляция или просто создание вещи, теперь это проблема для каждого бизнеса, организации и старшеклассников, пытающихся получить генеративную систему ИИ для составления документов и выполнения работы.Некоторые используют его в задачах с потенциалом для последствий высоких ставок, от психотерапии до исследования и написания юридических трусов.
«Я не думаю, что сегодня есть какая-либо модель, что это не страдает от какой-либо галлюцинации»,-сказала Даниэла Амодеэй, соучредитель и президент Antropic, производитель чат-бота Claude 2.
«Они на самом деле просто предназначены для прогнозирования следующего слова», - сказал Амодеэй.«И поэтому будет некоторая скорость, с которой модель делает это неточно».
Антропический, чат-производитель openai и другие крупные разработчики систем ИИ, известные как крупные языковые модели, говорят, что они работают над тем, чтобы сделать их более правдивыми.
Сколько времени это займет - и будут ли они когда -нибудь достаточно хорошими, чтобы, скажем, безопасно предоставить медицинские советы - приходится увидеть.
«Это не исправлено», - сказала Эмили Бендер, профессор лингвистики и директор Университета Вашингтонского университета в лаборатории вычислительной лингвистики.«Это присуще несоответствию между технологией и предлагаемыми вариантами использования».
Многое занимается надежностью генеративной технологии ИИ.Глобальный институт McKinsey Global Institute. Он добавит в мировую экономику эквивалент от 2,6 триллиона долларов до 4,4 триллиона долларов.Чатботы - это только одна часть этого безумия, которая также включает в себя технологии, которые могут генерировать новые изображения, видео, музыку и компьютерный код.Почти все инструменты включают в себя некоторые языковые компоненты.
Google уже представляет продукт AI, написанный новостями для новостных организаций, для которых точность имеет первостепенное значение.Associated Press также изучает использование технологии в рамках партнерства с OpenAI, которое платит за использование части текстового архива AP для улучшения его систем ИИ.
В партнерстве с Индийским институтом управления гостиницей, компьютерный ученый Ганеш Баглер в течение многих лет работал над тем, чтобы получить системы искусственного интеллекта, в том числе предшественник CHATGPT, для изобретения рецептов для южноазиатских кухней, таких как новые версии бирьяни на базе риса.Единственным «галлюцинированным» ингредиентом может быть разница между вкусной и несъедобной едой.
Когда Сэм Альтман, генеральный директор Openai, посетил Индию в июне, профессор Института информационных технологий Индрапрастха, Дели, столкнулся с острыми вопросами.
«Я думаю, что галлюцинации в ЧАТГПТ все еще приемлемы, но когда рецепт выходит из галлюцинации, это становится серьезной проблемой», - сказал Баглер, вставая в многолюдном аудитории кампуса, чтобы обратиться к Альтману на остановке в Нью -Дели в мировом турне по технологиям США.Полем
“Что ты думаешь?”Баглер в конце концов спросил.
Альтман выразил оптимизм, если не прямое обязательство.
«Я думаю, что мы получим проблему галлюцинации в гораздо лучшем месте», - сказал Альтман.«Я думаю, что это займет у нас полтора года, два года. Что -то в этом роде. Но в этот момент мы все еще не будем говорить об этом. Существует баланс между творчеством и идеальной точностью, и модель должна учиться, когдаВы хотите одного или другого ».
Но для некоторых экспертов, которые изучали эту технологию, такие как лингвист -лингвист Университета Вашингтона, этих улучшений не хватает.
Бендер описывает языковую модель как систему для «моделирования вероятности различных строк форм слов», учитывая некоторые письменные данные, на которые она была обучена.
Это то, как проверки орфографии могут обнаружить, когда вы напечатали неправильное слово.Это также помогает автоматическому переводу и транскрипции, «сглаживая вывод, чтобы больше походить на типичный текст на целевом языке», - сказал Бендер.Многие люди полагаются на версию этой технологии всякий раз, когда используют функцию «Автозаполнение» при составлении текстовых сообщений или электронных писем.
Последний культ чат -ботов, таких как CHATGPT, Claude 2 или Google Bard, пытаются поднять это на следующий уровень, создав целые новые отрывки текста, но Бендер сказал, что они все еще просто неоднократно выбирают наиболее правдоподобное следующее слово в строке.
Когда используется для создания текста, языковые модели «предназначены для создания. Это все, что они делают», - сказал Бендер.Они хороши в имитации форм письма, таких как юридические контракты, телевизионные сценарии или сонеты.
«Но так как они только когда -либо делают вещи, когда текст, который они экструдировали, оказался интерпретируемым как то, что мы считаем правильным, то есть случайно», - сказал Бендер.«Даже если они могут быть настроены, чтобы быть правыми в большей степени, у них все равно будут режимы неудачи - и, вероятно, сбои будут в тех случаях, когда человеку, читающему текст, труднее, потому что они более неясны».
Эти ошибки не являются огромной проблемой для маркетинговых фирм, которые обращаются к Jasper AI для помощи в написании подачи, сказал президент компании Шейн Орлик.
«Галлюцинации на самом деле являются дополнительным бонусом», - сказал Орлик.«У нас все время есть клиенты, которые рассказывают нам, как они придумали идеи - как созданный Джаспер берет истории или углы, которые они никогда не думали о себе».
Техасский стартап работает с такими партнерами, как OpenAI, Anpropic, Google или Mater Mate, чтобы предложить своим клиентам модели с помощью языковых моделей искусственного интеллекта, адаптированные к их потребностям.По словам Орлика, для тех, кто обеспокоен точностью, это может предложить модель Anpropic, в то время как кто -то, обеспокоенный безопасностью их проприетарных исходных данных, может получить другую модель.
Орлик сказал, что знает, что галлюцинации не будут легко исправлены.Он рассчитывает на такие компании, как Google, которые, по его словам, должны иметь «действительно высокий стандарт фактического контента» для его поисковой системы, чтобы вставить много энергии и ресурсов в решения.
«Я думаю, что они должны решить эту проблему», - сказал Орлик.«Они должны рассмотреть это. Поэтому я не знаю, будет ли это когда -либо идеальным, но, вероятно, это будет просто становиться все лучше и лучше со временем».
Технооптимисты, в том числе соучредитель Microsoft Биллом Гейтс, прогнозировали розовые перспективы.
«Я с оптимизмом оптимистичен, что со временем моделей ИИ можно научить отличать факт от художественной литературы», - сказал Гейтс в июльском сообщении в блоге, подробно описывающих свои мысли о социальных рисках ИИ.
Он процитировал статью 2022 года от Openai в качестве примера «многообещающей работы на этом фронте».
Но даже Альтман, по крайней мере, пока, не рассчитывает, что модели будут правдивыми.
«Я, вероятно, доверяю ответам, которые выходят из ЧАТГПТ наименьшего из всех на земле», - сказал Альтман в Университете Баглера, чтобы смеяться.
© 2023 Associated Press.Все права защищены.Этот материал не может быть опубликован, трансляция, переписывается или перераспределен без разрешения.
Нашли ошибку в тексте? Напишите нам.