3 мин. чтения
6/20/2023 11:02:00 AM

Эксперты поощряют активное использование ChatGPT с новыми этическими стандартами

Большие языковые модели (LLM), такие как те, которые используются чат-ботом ChatGPT, способны произвести революцию в научной системе. К такому выводу пришло исследование Delphi, проведенное Институтом Александра фон Гумбольдта по изучению Интернета и общества (HIIG), в ходе которого был проведен обширный опрос 72 международных экспертов, специализирующихся в области исследований в области искусственного интеллекта и цифровизации.

Featured Image Начальная выборка (первый раунд) исследования. Обзор участников по дисциплинам и профессиональному статусу (n=72). Предоставлено: arXiv (2023). DOI: 10.48550/arxiv.2306.09928

Респонденты подчеркивают, что положительные эффекты для научной практики явно перевешивают негативные. В то же время они подчеркивают неотложную задачу науки и политики по активной борьбе с возможной дезинформацией со стороны LLM с целью сохранения доверия к научным исследованиям. Поэтому они призывают к упреждающему регулированию, прозрачности и новым этическим стандартам в использовании генеративного ИИ.

По мнению экспертов, положительные эффекты наиболее очевидны в текстовой сфере академической работы. В будущем большие языковые модели повысят эффективность исследовательских процессов за счет автоматизации различных задач, связанных с написанием и публикацией статей. Кроме того, они могут избавить ученых от растущих процедур административной отчетности и исследовательских предложений, которые значительно выросли в последние годы.

В результате они создают дополнительное время для критического мышления и открывают возможности для новых инноваций, поскольку исследователи могут переориентироваться на содержание своих исследований и эффективно донести его до более широкой аудитории.

Признавая неоспоримые преимущества, исследование подчеркивает важность устранения возможных негативных последствий. По мнению респондентов, LLM могут генерировать ложные научные утверждения, которые на первый взгляд неотличимы от подлинных результатов исследований.

Эти ошибки могут проникнуть в научные дебаты, если исследователи включат контент, созданный LLM, в свою повседневную работу без тщательной проверки.

Чтобы преодолеть эти проблемы, исследователи должны приобрести новые навыки. К ним относится способность критически контекстуализировать результаты LLM. В то время, когда дезинформация из больших языковых моделей растет, исследователи должны использовать свой опыт, авторитет и репутацию для продвижения объективного публичного дискурса. Они выступают за ужесточение правовых норм, повышение прозрачности обучающих данных, а также за развитие ответственной и этичной практики использования генеративного ИИ в научной системе.

Д-р Бенедикт Фехер, ведущий исследователь опроса, комментирует: «Результаты указывают на преобразующий потенциал больших языковых моделей в научных исследованиях. Несмотря на то, что их огромные преимущества перевешивают риски, мнения экспертов в области искусственного интеллекта и цифровизации показывают, насколько важно конкретно решать проблемы, связанные с дезинформацией и потерей доверия к науке. Если мы ответственно относимся к LLM и придерживаемся этических принципов, мы можем использовать их для максимизации положительного воздействия и минимизации потенциального вреда».

Оригинал статьи: Benedikt Fecher et al, Friend or Foe? Exploring the Implications of Large Language Models on the Science System, arXiv (2023). DOI: 10.48550/arxiv.2306.09928 🔗

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

Рендеринг трехмерных изображений по отражениям со зрачка при помощи NeRF

6/28/2023 · 3 мин. чтения

Рендеринг трехмерных изображений по отражениям со зрачка при помощи NeRF

Исследование устанавливает теорию сверхпараметризации в квантовых нейронных сетях

6/27/2023 · 3 мин. чтения

Исследование устанавливает теорию сверхпараметризации в квантовых нейронных сетях

*Facebook, Instagram, Meta - запрещенные в РФ организации.