Приостановите гигантские эксперименты с искусственным интеллектом!
Открытое письмо:
Мы призываем все лаборатории искусственного интеллекта (далее - ИИ) немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.
Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показывают обширные исследования и это признают ведущие лаборатории занимающиеся ИИ. Как упомянаолсь в признанном Asilomar AI Principles, Продвинутый ИИ может повлечь за собой обширные изменения в истории жизни на Земле и этот процесс следует планировать и управлять им с соразмерной тщательностью и ресурсами.
Продвинутый ИИ может повлечь за собой обширные изменения в истории жизни на Земле и этот процесс следует планировать и управлять им с соразмерной тщательностью и ресурсами.
Asilomar AI Principles
К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории ИИ увязли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, прогнозировать или надежно контролировать.
Современные системы ИИ в настоящее время становятся конкурентоспособными в решении общих задач, и мы должны спросить себя:
- Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
- Должны ли мы автоматизировать все рабочие места?
- Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас?
- Должны ли мы рисковать потерей контроля над нашей цивилизацией?
Такие решения не должны делегироваться неавбранным(не определенным) лидерам технологий. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. В недавнем заявлении OpenAI относительно общего развития ИИ говорится, что «В какой-то момент станет важным необходимость получить независимую оценку, прежде чем приступать к обучению будущих систем, а для самых передовых усилий в создании новых моделей - согласиться ограничить скорость роста вычислений». Мы согласны. Этот момент сейчас.
"В какой-то момент станет важным необходимость получить независимую оценку, прежде чем приступать к обучению будущих систем, а для самых передовых усилий в создании новых моделей - согласиться ограничить скорость роста вычислений."
заявлении OpenAI
Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение более мощных систем ИИ, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства стран должны вмешаться и ввести мораторий.
Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг в сторону от опасной гонки к все более крупным непредсказуемым моделям черного ящика с появляющимися возможностями.
Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.
Параллельно разработчики ИИ должны работать с политическими деятелями, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать:
- Новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ;
- Надзор и отслеживание высокопроизводительных систем ИИ и больших пулов вычислительных мощностей;
- Системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей;
- Надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ;
- Надежное государственное финансирование технических исследований безопасности ИИ;
- И хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно в демократии), которые вызовет ИИ.
В следствии чего, человечество может наслаждаться процветающим будущим с ИИ, предствляющим пользу общуству и возможность адаптации.
Общество поставило на паузу другие технологии с потенциально катастрофическими последствиями для самих себя. Мы можем сделать тоже самое с ИИ и не спещить совершать горькие ошибки для всего человечества.
Update [14:06 29/03/2023]
Профессор Нью-Йоркского Университета ЯнЛекан, заявил в твиттере, что не подписывал никакие открытие письма против ИИ, хотя его подпись там стоит. Еще больше вопросов вызывает тот факт, что позже твит удалили.
В письме также нашли несколько явно фейковых имен с подписями, а еще из него пропали имена Билла Гейтса и Сэма Альтмена. Возникает вопрос достоверности самого письма и представленных в нем данных.
Данное письмо подписали
-
Йошуа Бенжио, Монреальский университет, лауреат премии Тьюринга за развитие глубокого обучения, глава Монреальского института алгоритмов обучения
-
Стюарт Рассел, Беркли, профессор компьютерных наук, директор Центра интеллектуальных систем и соавтор стандартного учебника «Искусственный интеллект: современный подход»
-
Илон Маск, генеральный директор SpaceX, Tesla и Twitter
-
Стив Возняк, сооснователь Apple
-
Юваль Ной Харари, писатель и профессор Еврейского университета в Иерусалиме.
-
Эндрю Янг, партия «Вперед», сопредседатель, кандидат в президенты 2020 года, автор бестселлеров NYT, президентский посол в области глобального предпринимательства
-
Коннор Лихи, генеральный директор Conjecture
-
И другие (на данный момент письмо подписало 1125 человек).
Исторчинк: