Начало Hi-Tech Институт будущего жизни и Илон Маск призвали поставить ИИ на паузу

Институт будущего жизни и Илон Маск призвали поставить ИИ на паузу

Hi-Tech
/ 1211 0
Институт будущего жизни и Илон Маск призвали поставить ИИ на паузу

Институт будущего жизни, Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли призвали к 6-месячной паузе в разработке систем, более мощных, чем OpenAI GPT-4, ввиду потенциальных рисков для человечества.

Ранее в этом месяце OpenAI при поддержке Майкрософта представил четвертую итерацию своей программы искусственного интеллекта GPT (Generative Pre-trained Transformer), которая поразила пользователей широким спектром приложений, от вовлечения пользователей в человеческую беседу до сочинения песен и обобщения длинных документов.

В письме, выпущенном некоммерческим Институтом будущего жизни и подписанном более тысячей человек, включая Маска, содержится призыв приостановить разработку продвинутого ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких проектов.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми», говорится в письме. В нем подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений и содержится призыв к разработчикам сотрудничать с политиками над управлением и регулирующими органами.

Среди соавторов письма – гендиректор Stability AI Эмад Мостак, исследователи DeepMind, принадлежащей Alphabet (Гуглу), тяжеловесы в области ИИ Йошуа Бенжио, которого часто называют одним из «крестных отцов ИИ», и Стюарт Рассел, пионер исследований в области ИИ. 

Согласно реестру прозрачности Европейского союза, Институт будущего жизни в основном финансируется Фондом Маска, а также лондонской группой эффективного альтруизма Founders Pledge и Фондом сообщества Силиконовой долины.

Опасения возросли, когда Европол присоединился к хору этических и юридических опасений по поводу передового ИИ, такого как ChatGPT, предупредив о его потенциальном неправомерном использовании в киберпреступности.

Тем временем правительство Великобритании обнародовало предложения по «адаптируемой» нормативно-правовой базе в отношении ИИ. Подход правительства, изложенный в программном документе, опубликованном в среду, заключается в разделении ответственности за управление ИИ между регулирующими органами в области прав человека, здоровья и безопасности и конкуренции, а не в создании нового органа, занимающегося этой технологией.

Маск, чья компания Тесла использует ИИ для системы автопилота, открыто высказывает свое беспокойство по поводу ИИ.

С момента выпуска ChatGPT побудил конкурентов ускорить разработку аналогичных больших языковых моделей, а компании – интегрировать генеративные модели ИИ в свои продукты.

На прошлой неделе OpenAI объявил, что сотрудничает с дюжиной фирм по встраиванию ИИ в чат-ботов, позволяя пользователям ChatGPT заказывать продукты через Instacart или бронировать авиабилеты через Expedia.

Сэм Альтман, исполнительный директор OpenAI, не подписал письмо.

«Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», сказал подписавший письмо профессор Нью-Йоркского университета Гэри Маркус. «Крупные игроки становятся все более скрытными в том, что они делают, что затрудняет защиту общества от любого вреда, который может материализоваться».

Критики обвинили тех, кто подписал письмо, в пропаганде «ажиотажа вокруг ИИ», утверждая, что заявления о текущем потенциале технологии были сильно преувеличены.

«Такого рода заявления предназначены для поднятия ажиотажа. Они предназначены для того, чтобы заставить людей волноваться», говорит исследовательница ИИ, доцент Университета Умео Джоанна Бьорклунд. «Я не думаю, что есть необходимость тянуть ручник».

По ее словам, вместо того, чтобы приостанавливать исследования, к создателям ИИ следует предъявлять более высокие требования прозрачности. «Если вы занимаетесь исследованиями в области ИИ, вы должны быть очень прозрачными в отношении того, как вы это делаете».

Ваше мнение
2 + 3 =