Неделя Новостей - главные новости недели | Weekly-news.ru

Начало Hi-Tech Эксперты: ИИ опасен для Homo Sapiens, как пандемия и ядерная война

Эксперты: ИИ опасен для Homo Sapiens, как пандемия и ядерная война

Hi-Tech
/ 1770 0
Эксперты: ИИ опасен для Homo Sapiens, как пандемия и ядерная война

Эксперты и лидеры индустрии, в том числе руководители OpenAI и Google Deepmind, опасаются, что искусственный интеллект может привести к вымиранию человечества.

Десятки ведущих экспертов и топ-менеджеров крупнейших компаний подписались под заявлением, опубликованном на странице Центра безопасности ИИ.

«Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», говорится в нем.

Сэм Альтман, исполнительный директор компании OpenAI, производящей ChatGPT, Демис Хассабис, исполнительный директор Google DeepMind, и Дарио Амодеи из Anthropic поддержали заявление. Доктор Джеффри Хинтон, ранее предупредивший о рисках, связанных со сверхинтеллектуальным ИИ, также поддержал призыв Центра безопасности ИИ. Подписался и Йошуа Бенжио, профессор компьютерных наук Монреальского университета. Д-ра Хинтона, профессора Бенжио и профессора Нью-Йоркского университета Янна Лекуна называют «крестными отцами ИИ» за их новаторскую работу в этой области, за которую они вместе получили премию Тьюринга 2018 года, которая отмечает выдающийся вклад в информатику.

Но другие лидеры мнений считают такие опасения преувеличенными. Многие эксперты считают, что страхи перед тем, что ИИ уничтожит человечество, отвлекают внимание от проблем, которые уже являются глобальными угрозами.

Арвинд Нараянан, ученый-компьютерщик из Принстонского университета, считает сценарии катастроф, подобные научно-фантастическим, нереалистичными: «Существующий ИИ далеко не настолько крут, чтобы эти риски материализовались».

Старшая научная сотрудница Оксфордского института этики в области искусственного интеллекта Элизабет Реньерис сказала, что ее больше беспокоят риски, которые ближе к настоящему. «Достижения в области искусственного интеллекта увеличат масштабы автоматизированного принятия решений, которые являются предвзятыми, дискриминационными, исключающими или иным образом несправедливыми, а также непостижимыми и неоспоримыми», сказала она. Они «приведут к экспоненциальному увеличению объема и распространению дезинформации, тем самым разрушая реальность и подрывая общественное доверие, будут способствовать дальнейшему неравенству, особенно для тех, кто остается по ту сторону цифрового разрыва».

По словам г-жи Реньерис, многие инструменты ИИ, по сути, «бесплатно пользуются» «всем человеческим опытом на сегодняшний день». Многие ИИ обучаются на созданном людьми контенте, тексте, искусстве и музыке, которые они затем могут имитировать, и их создатели «эффективно передали огромное богатство и власть из общественной сферы небольшой горстке частных лиц».

Но директор Центра безопасности ИИ Дэн Хендрикс считает, что будущие риски и нынешние проблемы «не следует рассматривать враждебно».

«Решение некоторых проблем сегодня может быть полезно для устранения многих рисков, которые могут возникнуть завтра», пояснил он.

Освещение в СМИ предполагаемой «экзистенциальной» угрозы со стороны ИИ резко возросло с марта 2023 года, когда эксперты, в том числе глава Tesla Илон Маск, подписали открытое письмо, призывающее остановить разработку технологии ИИ следующего поколения.

В этом письме спрашивалось, должны ли мы «развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, вытеснить и заменить нас».

Напротив, новая кампания имеет очень короткое заявление, призванное «открыть дискуссию».

В заявлении риск сравнивается с ядерной войной. В сообщении в блоге OpenAI недавно предположили, что сверхразум может регулироваться аналогично ядерной энергии: «Нам, вероятно, в конечном итоге понадобится что-то вроде МАГАТЭ для усилий в области сверхразума».

И Сэм Альтман, и исполнительный директор Google Сундар Пичаи входят в число технологических лидеров, которые недавно обсуждали регулирование ИИ с британским премьер-министром. Однако, говоря с журналистами о последнем предупреждении о риске ИИ, Риши Сунак подчеркнул преимущества для экономики и общества. «Вы видели, что в последнее время он помогает парализованным людям ходить, открывает новые антибиотики, но мы должны убедиться, что это делается безопасным и надежным образом», сказал он. «Именно поэтому на прошлой неделе я встретился с руководителями крупных компаний, занимающихся искусственным интеллектом, чтобы обсудить, какие барьеры нам необходимо установить, какое регулирование следует ввести, чтобы обеспечить нашу безопасность. Люди будут обеспокоены сообщениями о том, что ИИ представляет экзистенциальные риски, такие как пандемии или ядерные войны. Я хочу, чтобы они были уверены, что правительство очень внимательно следит за этим».

Сунак обсуждал этот вопрос с лидерами G7 и намерен снова поднять его в ходе визита в США. G7 недавно создала рабочую группу по ИИ.

Ваше мнение
8 + 1 =