Начало Hi-Tech Майкрософт распустил свою команду по этике ИИ

Майкрософт распустил свою команду по этике ИИ

Hi-Tech
/ 658 0
Майкрософт распустил свою команду по этике ИИ

Целая команда, ответственная за обеспечение того, чтобы продукты Майкрософт AI поставлялись с мерами предосторожности для смягчения социального вреда, была уволена во время недавнего сокращения 10 тысяч сотрудников компании.

Бывшие сотрудники заявили, что группа по этике и обществу являлась важной частью стратегии Майкрософта по снижению рисков, связанных с использованием технологии OpenAI в продуктах. Прежде чем ее закрыли, команда разработала целый «набор инструментов для ответственных инноваций», чтобы помочь инженерам Майкрософта предсказать, какой вред может нанести ИИ, а затем уменьшить этот вред.

Незадолго до того OpenAI выпустил, возможно, свою самую мощную модель искусственного интеллекта, GPT-4, которая уже помогает в поиске Бинга.

Майкрософт заявил, что по-прежнему «привержен безопасной и ответственной разработке продуктов и опыта ИИ, и делает это, инвестируя в людей, процессы и партнерские отношения, которые отдают этому приоритет».

Назвав работу группы по этике и обществу «новаторской», Майкрософт заявил, что за последние шесть лет компания уделяла больше внимания инвестированию и расширению своего управления ответственного ИИ. Этот офис остается активным, наряду с другими ответственными рабочими группами Майкрософта по искусственному интеллекту, Эфирным комитетом и Ответственной стратегией искусственного интеллекта в разработке.

Эмили Бендер, эксперт Вашингтонского университета по вычислительной лингвистике и этическим вопросам обработки естественного языка, присоединилась к другим критикам, осуждающим решение Майкрософта распустить команду по этике и обществу. Эмили Бендер сказала, что как незаинтересованный человек считает решение Майкрософт «недальновидным».

Майкрософт начал фокусироваться на командах, занимающихся изучением ответственного ИИ, еще в 2017 году. К 2020 году эта работа включала в себя команду по этике и обществу, пиковый размер которой составлял 30 человек. Но по мере того, как гонка в сфере ИИ с Гуглом накалялась, в октябре Майкрософт начал переводить большинство членов команды по этике и обществу в команды по конкретным продуктам. Осталось всего семь человек, занятых реализацией «амбициозных планов» команды по этике и обществу.

Это было слишком много работы для такой маленькой команды. Ее бывшие члены сказали, что Майкрософт не всегда действовал в соответствии с их рекомендациями, такими как стратегии смягчения последствий, рекомендованные для Бинг Image Creator, которые могут помешать ему копировать бренды живых художников. (Майкрософт оспорил это утверждение, заявив, что он модифицировал инструмент перед запуском, чтобы решить проблемы, отмеченные командой).

В то время как команда прошлой осенью сокращалась, корпоративный вице-президент Майкрософт по искусственному интеллекту Джон Монтгомери сказал, что было большое давление, чтобы «взять самые последние модели OpenAI и те, которые появятся после них, и перенести их клиентам» на очень высокой скорости». Сотрудники предупредили Монтгомери о «серьезных» опасениях по поводу возможных негативных последствий этой стратегии, основанной на скорости, но Монтгомери настаивал, что «давление остается прежним».

Несмотря на то, что размер команды по этике и обществу сократился, Майкрософт обещал ей, что она не будет ликвидирована. Однако 6 марта остаткам команды сказали во время встречи в Зуме, что решение полностью распустить ее «критически важно для бизнеса».

Эмили Бендер это решение особенно разочаровывает, потому что Майкрософт «удалось собрать действительно замечательных людей, работающих над ИИ, этикой и общественным влиянием технологий и наделенных полномочиями в Майкрософте». По его оценке, Майкрософт этим шагом «по сути говорит», что, если компания воспринимает рекомендации команды по этике и обществу «как противоречащие тому, что принесет деньги в краткосрочной перспективе, тогда они должны уйти».

Для таких экспертов, как Эмили Бендер, кажется, что Майкрософт теперь меньше заинтересован в финансировании команды, которая убеждала компанию снизить скорость, когда модели ИИ могут нести риски, в том числе юридические. Один из сотрудников сказал, что им интересно, что произойдет как с брендом, так и с пользователями теперь, когда некому сказать «нет», если пользователям навязывают потенциально безответственные проекты.

«Хуже всего то, что мы подвергли риску бизнес и людей», сказал один из бывших сотрудников.

Когда компания перезапустила Бинг с искусственным интеллектом, пользователи быстро обнаружили, что инструмент Бинг Чат имеет неожиданное поведение: создает заговоры, распространяет дезинформацию и, похоже, клевещет на людей. До сих пор технологическим компаниям, таким как Майкрософт и Гугл, доверяли самостоятельно регулировать выпуск инструментов ИИ, выявляя риски и снижая ущерб. Но Эмили Бендер, которая вместе с бывшей исследовательницей Гугла по этике ИИ Тимнит Гебру написала статью, в результате которой Гебру была уволена за критику больших языковых моделей, от которых зависят многие инструменты ИИ, уверена, что «саморегулирование как модель не будет работать».

«Должно быть внешнее давление», чтобы инвестировать в ответственные команды ИИ, уверена Эмили Бендер. Он выступает за то, чтобы регулирующие органы вмешались на этом этапе, если общество хочет большей прозрачности от компаний на фоне «нынешней волны шумихи вокруг ИИ». В противном случае пользователи рискуют присоединиться к популярным инструментам, как они это сделали с Бинг на базе искусственного интеллекта, у которого сейчас 100 млн активных пользователей в месяц, без четкого понимания того, как эти инструменты могут навредить пользователям.

«Я думаю, что каждый пользователь, который сталкивается с этим, должен иметь четкое представление о том, с чем он работает», сказала Эмили Бендер. «И я не вижу компаний, которые хорошо с этим справляются».

Эмили Бендер «пугает» то, что компании, кажется, поглощены извлечением выгоды из шумихи вокруг ИИ, утверждающей, что ИИ «будет таким же большим и революционным, каким был интернет». Вместо этого компании обязаны «думать о том, что может пойти не так».

В Майкрософте эта обязанность теперь возложена на управление ответственного ИИ.

«Мы также увеличили масштабы и возможности нашего Office of Responsible AI, который обеспечивает межкорпоративную поддержку для таких вещей, как проверка конфиденциальных вариантов использования и защита политик, защищающих клиентов», сказал представитель Майкрософта.

Для Эмили Бендер лучшее решение, чем полагаться на такие компании, как Майкрософт, состоит в том, чтобы общество выступало за соблюдение правил не для «микроуправления конкретными технологиями, а, скорее, для установления и защиты прав» на постоянной основе.

До тех пор, пока не будут приняты надлежащие правила, больше прозрачности в отношении потенциального вреда и повышения информационной грамотности среди пользователей, Эмили Бендер рекомендует пользователям «никогда не принимать медицинские советы ИИ, юридические консультации, психотерапию» или рекомендации других конфиденциальных приложений ИИ.

«Это кажется мне очень, очень недальновидным», сказала Эмили Бендер о нынешней шумихе вокруг ИИ.

Ваше мнение
7 + 6 =