4 мин. чтения
8/28/2023 3:20:01 AM

Борьба за «опасную» идеологию, формирующую дебаты об искусственном интеллекте

Article Preview Image Илон Маск из Tesla — один из тех, кто утверждает, что ИИ может привести к вымиранию человечества, но при этом получает выгоду, утверждая, что только их продукты могут спасти нас.

Любимая философия Кремниевой долины, долгосрочность, помогла организовать дебаты по искусственному интеллекту вокруг идеи вымирания человечества.

Но все более громкие критики предупреждают, что эта философия опасна, а одержимость вымиранием отвлекает от реальных проблем, связанных с ИИ, таких как кража данных и предвзятые алгоритмы.

Писатель Эмиль Торрес, бывший сторонник долгосрочного подхода, ставший критиком движения, рассказал агентству AFP, что его философия основана на тех же принципах, которые использовались в прошлом для оправдания массовых убийств и геноцида.

Это движение и связанные с ним идеологии, такие как трансгуманизм и эффективный альтруизм, имеют огромное влияние в университетах от Оксфорда до Стэнфорда и во всем технологическом секторе.

Венчурные капиталисты, такие как Питер Тиль и Марк Андриссен, инвестировали в компании по продлению жизни и другие любимые проекты, связанные с этим движением.

Илон Маск и Сэм Альтман из OpenAI подписали открытые письма, предупреждающие, что ИИ может привести к вымиранию человечества, хотя они и выиграют, утверждая, что только их продукты могут спасти нас.

В конечном итоге критики говорят, что это маргинальное движение имеет слишком большое влияние на общественные дебаты о будущем человечества.

Сторонники долгосрочного подхода считают, что мы обязаны попытаться добиться наилучших результатов для наибольшего числа людей.

Это ничем не отличается от либералов XIX века, но сторонники долгосрочного подхода имеют в виду гораздо более длительные сроки.

Они смотрят в далекое будущее и видят триллионы и триллионы людей, плавающих в космосе, колонизирующих новые миры.

Они утверждают, что перед каждым из этих будущих людей мы несем тот же долг, что и перед всеми живущими сегодня.

А поскольку их так много, они имеют гораздо больший вес, чем сегодняшние экземпляры.

Такое мышление делает идеологию «действительно опасной», сказал Торрес, автор книги «Вымирание человечества: история науки и этики уничтожения».

«Каждый раз, когда у вас есть утопическое видение будущего, отмеченное почти бесконечной ценностью, и вы сочетаете его с своего рода утилитарным способом морального мышления, где цель может оправдывать средства, это будет опасно», — сказал Торрес.

Если сверхразумная машина вот-вот оживет и сможет уничтожить человечество, сторонники долгосрочного развития будут противостоять этому, независимо от последствий.

На вопрос в марте пользователя Twitter, платформы, ныне известной как X, сколько людей могло бы умереть, чтобы остановить это, идеолог-долгосрочник Элиэзер Юдковски ответил, что людей должно быть достаточно, «чтобы сформировать жизнеспособное репродуктивное население».

«Пока это правда, шанс когда-нибудь достичь звезд еще есть», — написал он, хотя позже удалил сообщение.

Долгосрочность выросла из работ шведского философа Ника Бострома в 1990-х и 2000-х годах, посвященных экзистенциальному риску и трансгуманизму — идее о том, что люди могут быть улучшены с помощью технологий.

Академик Тимнит Гебру отметил, что трансгуманизм с самого начала был связан с евгеникой.

Британский биолог Джулиан Хаксли, придумавший термин «трансгуманизм», также был президентом Британского евгенического общества в 1950-х и 1960-х годах.

«Лонгтермизм — это евгеника под другим названием», — написал Гебру на X в прошлом году.

Бостром уже давно столкнулся с обвинениями в поддержке евгеники после того, как он назвал экзистенциальным риском «дисгеническое давление», когда менее умные люди размножаются быстрее, чем их более умные сверстники.

Философ, руководящий Институтом будущего жизни при Оксфордском университете, в январе извинился после того, как признался, что писал расистские посты на интернет-форуме в 1990-х годах.

«Поддерживаю ли я евгенику? Нет, не в том смысле, в котором этот термин обычно понимают», — написал он в своих извинениях, отметив, что он использовался для оправдания «некоторых из самых ужасных злодеяний прошлого века».

Несмотря на эти проблемы, сторонников долгосрочного подхода, таких как Юдковски, бросивший школу, известный тем, что писал фанфики о Гарри Поттере и пропагандировал полиаморию, продолжают уважать.

Альтман выразил благодарность ему за получение финансирования OpenAI и предположил в феврале, что он заслуживает Нобелевской премии мира.

Но Гебру, Торрес и многие другие пытаются сосредоточить внимание на таких вредах, как кража работ художников, предвзятость и концентрация богатства в руках нескольких корпораций.

Торрес, который использует местоимение они, сказал, что, хотя были такие истинно верующие, как Юдковски, большая часть дебатов вокруг вымирания была мотивирована прибылью.

«Разговоры о вымирании человечества, о настоящем апокалиптическом событии, в котором все умирают, гораздо более сенсационны и увлекательны, чем разговоры о кенийских рабочих, получающих 1,32 доллара в час, или об эксплуатации художников и писателей», — заявили они.

Получи бесплатную еженедельную рассылку со ссылками на репозитории и лонгриды самых интересных историй о стартапах 🚀, AI технологиях 👩‍💻 и программировании 💻!
Присоединяйся к тысячам читателей для получения одного еженедельного письма

Подписывайся на нас:

Нашли ошибку в тексте? Напишите нам.

Добавляй ЛРНЧ в свою ленту Google Новостей.
Читайте далее 📖

ChatGPT обращается к бизнесу, поскольку популярность падает

8/30/2023 · 4 мин. чтения

ChatGPT обращается к бизнесу, поскольку популярность падает

Microsoft: ИИ рискует повторить ошибки эпохи социальных сетей

8/26/2023 · 4 мин. чтения

Microsoft: ИИ рискует повторить ошибки эпохи социальных сетей