В Microsoft опасаются слишком умного искусственного интеллекта

По словам президента Microsoft Брэда Смита, искусственный интеллект может привести к оруэлловскому будущему, если в ближайшее время не будут приняты законы о защите населения.

Брэд Смит сделал комментарии в программе новостей BBC "Панорама" во время эпизода, посвященного потенциальным опасностям искусственного интеллекта (ИИ) и гонке между США и Китаем за разработку этой технологии. Предупреждение поступило примерно через месяц после того, как Европейский Союз выпустил проект правил, пытающихся установить ограничения на использование ИИ. Подобных усилий мало в Соединенных Штатах, где законодательство в основном сосредоточено на ограничении регулирования и продвижении ИИ в целях национальной безопасности.

"Мне постоянно напоминают уроки Джорджа Оруэлла из его книги 1984", - сказал Смит. "Основная история была о правительстве, которое могло видеть все, что все делают, и слышать все, что все говорят, все время. Этого не произошло в 1984 году, но если мы не будем осторожны, это может произойти в 2024 году".

Искусственный интеллект - это неточный термин, но обычно он относится к машинам, которые могут обучаться или решать проблемы автоматически, без указания оператора-человека. Многие программы искусственного интеллекта сегодня полагаются на машинное обучение, набор вычислительных методов, используемых для распознавания закономерностей в больших объемах данных и последующего применения этих уроков к следующему раунду данных, теоретически становясь все более и более точным с каждым проходом.

Эксперты утверждают, что это чрезвычайно мощный подход, который применялся ко всему, от базовой математической теории до моделирования ранней Вселенной, но он может быть опасен в применении к социальным данным. Данные о людях изначально содержат предубеждения. Например, недавнее исследование, опубликованное в журнале JAMA Psychiatry, показало, что алгоритмы, предназначенные для прогнозирования риска самоубийства, работали намного хуже с чернокожими и американскими индейцами / коренными жителями Аляски, чем с белыми, частично потому, что в медицинской системе было меньше цветных пациентов, а частично потому что цветные пациенты с меньшей вероятностью получат лечение и поставят соответствующий диагноз в первую очередь, а это означает, что исходные данные были искажены.

"Предвзятость никогда нельзя полностью избежать, но с ней можно бороться", - сказал Бернхард Траут, профессор химической инженерии в Массачусетском технологическом институте, который ведет профессиональный курс по ИИ и этике. "Хорошая новость заключается в том, что снижение предвзятости является главным приоритетом как в академических кругах, так и в индустрии искусственного интеллекта. Люди в сообществе очень осведомлены об этой проблеме и пытаются ее решить", - сказал он.

С другой стороны, злоупотребление ИИ, возможно, более проблематично, сказал Траут. Как используется ИИ, это не просто техническая проблема; это в равной степени политический и моральный вопрос. И эти ценности сильно различаются от страны к стране.

"Распознавание лиц - чрезвычайно мощный инструмент, позволяющий делать хорошие вещи, но если вы хотите наблюдать за каждым на улице, если вы хотите видеть всех, кто появляется на демонстрации, вы можете заставить ИИ работать", - сказал Смит в интервью BBC. "И мы видим это в определенных частях мира".

Китай уже начал использовать технологию искусственного интеллекта как в повседневных, так и в тревожных целях. Например, распознавание лиц используется в некоторых городах вместо билетов в автобусах и поездах. Но это также означает, что правительство имеет доступ к обширным данным о передвижениях и взаимодействиях граждан, как сообщила BBC. Американская правозащитная группа IPVM, которая занимается этикой видеонаблюдения, нашла документы, предлагающие в Китае планы по разработке системы под названием "Один человек, один файл", которая будет собирать информацию о деятельности, отношениях и политических убеждениях каждого жителя в правительственном файле.

"Я не думаю, что Оруэлл когда-либо мог представить себе, что правительство способно на такой анализ", - сказал Конор Хили, директор IPVM.

В знаменитом романе Оруэлла 1984 описывается общество, в котором правительство наблюдает за гражданами через телеэкраны даже дома. Но Оруэлл не представлял себе возможностей, которые искусственный интеллект добавит слежке - в его романе персонажи находят способы избежать видеонаблюдения только для того, чтобы их выдавали сограждане.

Возможное регулирование ИИ со стороны ЕС приведет к запрету систем, которые пытаются обойти свободу воли пользователей, или систем, которые позволяют правительству осуществлять любой вид "социальной оценки". Другие типы приложений считаются "высокорисковыми" и должны соответствовать требованиям прозрачности, безопасности и надзора, чтобы быть размещенными на рынке. К ним относятся такие вещи, как искусственный интеллект для критически важной инфраструктуры, правоохранительные органы, пограничный контроль и биометрическая идентификация, например системы идентификации по лицу или голосу. Другие системы, такие как чат-боты для обслуживания клиентов или видеоигры с искусственным интеллектом, считаются низкоопасными и не подлежат строгой проверке.

Напротив, интерес федерального правительства США к искусственному интеллекту в значительной степени сосредоточен на поощрении разработки ИИ для национальной безопасности и военных целей. Этот фокус иногда приводил к противоречиям. Например, в 2018 году Google закрыл свой проект Maven, контракт с Пентагоном, который автоматически анализировал видео, снятые военными самолетами и дронами. Компания утверждала, что цель заключалась только в том, чтобы пометить объекты для проверки человеком, но критики опасались, что эту технологию можно использовать для автоматического нацеливания на людей и места для ударов дронов. Информаторы в Google раскрыли этот проект, что в конечном итоге привело к настолько сильному общественному давлению, что компания отменила проект.

Тем не менее, Пентагон теперь тратит более 1 миллиарда долларов в год на контракты на ИИ, и применение машинного обучения в военной сфере и национальной безопасности неизбежно, учитывая энтузиазм Китая в достижении превосходства ИИ, сказал Траут.

"Вы не можете сделать слишком много, чтобы воспрепятствовать желанию иностранной страны развивать эти технологии", - сказал Траут. "И поэтому лучшее, что вы можете сделать, - это развить их самостоятельно, чтобы уметь понимать их и защищать себя, оставаясь при этом моральным лидером".

Тем временем усилия по обузданию ИИ внутри страны предпринимаются правительствами штатов и местными властями. Крупнейший округ штата Вашингтон, округ Кинг, только что запретил правительству использовать программное обеспечение для распознавания лиц. Это первый округ в США, который сделал это, хотя город Сан-Франциско сделал то же самое в 2019 году, а затем несколько других городов.

Уже были случаи, когда программное обеспечение для распознавания лиц приводило к ложным арестам. В июне 2020 года чернокожий мужчина в Детройте был арестован и содержался под стражей в течение 30 часов, потому что алгоритм ошибочно идентифицировал его как подозреваемого по делу о краже в магазине. Исследование, проведенное в 2019 году Национальным институтом стандартов и технологий, показало, что программное обеспечение выдает больше ложных совпадений для чернокожих и азиатских людей по сравнению с белыми, а это означает, что технология, вероятно, усугубит неравенство в полицейской деятельности для цветных.

"Если мы не примем сейчас законы, которые будут защищать общественность в будущем, мы обнаружим, что технологии стремительно развиваются, - сказал Смит, - и будет очень трудно наверстать упущенное".

techno.bigmir.net