Эдуардо Морчиано
“Для того, чтобы выйти из этого тупика, нам нужно что-то новое, например, порох, который изобрели китайцы и которым мы до сих пор убиваем друг друга», — говорит Главнокомандующий ВСУ генерал Валерий Залужный. Возможно искусственный интеллект и является тем самым “порохом” (новой технологией), о котором говорил Главком.
Как искусственный интеллект изменит армию
В 2002 году группа спецназа отрабатывала рейд на конспиративную квартиру. Группа молча подошла к двухэтажному зданию, построенному для военной подготовки, где скрывался вымышленный лидер террористов. Один солдат подкрался к открытому окну и бросил туда небольшой дрон, управляемый искусственным интеллектом. Дрон с искусственным интеллектом начал автономно летать по зданию, комната за комнатой, передавая кадры со своей камеры прямо на портативный планшет командира снаружи. Всего за несколько минут команда получила полную ситуационную осведомленность о интерьере здания. Он знал, какие комнаты пусты, какие заняты спящими членами семьи и где находится основная цель. Команда вошла в здание, точно зная, куда идти, что снизило риск для каждого участника. Учения увенчались успехом: если бы они были настоящими, команда убила бы лидера террористов.
Квадрокоптер с искусственным интеллектом, разработанный компанией Shield AI (где я был консультантом), с тех пор используется в реальных операциях. Это лишь один из многих способов, с помощью которых ИИ начинает менять национальную безопасность США. Вооруженные силы США используют искусственный интеллект для оптимизации всего, начиная от обслуживания оборудования и заканчивая бюджетными решениями. Аналитики разведки полагаются на ИИ для быстрого сканирования гор информации, чтобы выявить соответствующие закономерности, которые позволяют им принимать более обоснованные решения и ускорять их. В будущем американцы могут ожидать, что ИИ изменит то, как Соединенные Штаты и их противники сражаются на поле боя. Короче говоря, искусственный интеллект вызвал революцию в области безопасности, которая только начинает разворачиваться.
По мере того, как ИИ ворвался в общественное сознание, некоторые исследователи, обеспокоенные опасностью ИИ, призвали приостановить разработку. Но остановить американский прогресс в области ИИ невозможно: математические основы ИИ распространены повсеместно, человеческие навыки для создания моделей ИИ получили широкое распространение, а движущие силы исследований и разработок в области ИИ — как человеческое творчество, так и коммерческая выгода — очень мощны. Попытка остановить прогресс также была бы ошибкой. Китай прилагает все усилия, чтобы превзойти Соединенные Штаты в области искусственного интеллекта, особенно когда речь идет о военном применении. Если ему это удастся, Пекин будет обладать гораздо более мощными вооруженными силами, потенциально способными увеличить темп и эффективность своих операций за пределами того, с чем могут сравниться Соединенные Штаты. Способность Китая использовать кибернетическую и радиоэлектронную войну против американских сетей и критически важной инфраструктуры также будет опасно расширена. Проще говоря, Пентагону необходимо ускорить, а не замедлить внедрение ответственного ИИ. Если этого не произойдет, Вашингтон может потерять военное превосходство, которое обеспечивает интересы Соединенных Штатов, безопасность их союзников и партнеров, а также основанный на правилах международный порядок.
Ускорение, однако, легче сказать, чем сделать. Соединенные Штаты могут лидировать в мире, когда дело доходит до исследований и разработок в области искусственного интеллекта, но правительство США все еще борется за быстрое и масштабное внедрение инновационных технологий, таких как ИИ. В компании не работает достаточное количество специалистов, обладающих техническими знаниями, необходимыми для тестирования, оценки, закупки и управления продуктами ИИ. Компания все еще создает инфраструктуру данных и компьютеров, необходимую для поддержки больших моделей ИИ. Ей не хватает гибкого финансирования, необходимого для быстрого создания наиболее перспективных прототипов ИИ и масштабирования их в разных агентствах. Кроме того, ей еще предстоит создать процессы тестирования и оценки, а также платформы, необходимые для того, чтобы гарантировать, что любой ИИ, интегрированный в военные системы, является безопасным, надежным и гарантированным. Когда ИИ играет роль в применении силы, планка безопасности и надежности должна оставаться очень высокой.
Политики и представители оборонных ведомств знают об этих проблемах. Лидеры Конгресса уделяют пристальное внимание искусственному интеллекту и обсуждают, как они могут регулировать отрасль и при этом поддерживать ее конкурентоспособность на мировом рынке. Канцелярия министра обороны США опубликовала политическую основу для ИИ, чтобы ускорить его ответственное и безопасное внедрение Министерством обороны. В настоящее время предпринимаются важнейшие усилия по одновременному развитию ИИ и установлению барьеров для его использования, что, по-видимому, находится в противоречии.
Но Конгресс еще не предпринял никаких действий, а внедрение системы искусственного интеллекта Пентагона все еще находится в стадии разработки. Несмотря на то, что создание Главного управления по цифровым технологиям и искусственному интеллекту в Министерстве обороны было важной вехой, Конгресс еще не предоставил этому ведомству ресурсы, необходимые для ответственного внедрения ИИ в оборонном ведомстве. Чтобы обеспечить безопасность и успешность защитных приложений ИИ, Пентагону необходимо будет еще больше укрепить защитные барьеры ИИ, добавить новый технический персонал и разработать новые способы тестирования и закупки ИИ. Время имеет решающее значение, и ставки слишком высоки, чтобы Соединенные Штаты могли отстать.
ЗДЕСЬ И СЕЙЧАС
Несмотря на то, что политика и нормативные акты все еще разрабатываются, ИИ уже трансформирует безопасность США. Военно-воздушные силы США, например, начинают использовать ИИ, чтобы помочь им распределять ресурсы и предсказывать, как одно решение может изменить их программу и бюджет. Если, например, руководство ВВС добавит еще одну эскадрилью F-35, их платформа распределения ресурсов с поддержкой искусственного интеллекта сможет сразу же подчеркнуть не только прямые затраты на принятие решения, но и его влияние на персонал, базы, доступность самолетов и другие важные области.
Точно так же военные начинают использовать модели ИИ при обслуживании сложных систем вооружений, от кораблей до истребителей. Программы ИИ теперь могут собирать данные с датчиков платформы и прогнозировать, когда и какое техническое обслуживание максимизирует ее готовность и долговечность при минимальных затратах.
Эти аналитические сведения об обслуживании чрезвычайно полезны, и это только начало того, что может сделать предиктивный ИИ. Разведывательное сообщество США и несколько боевых командований США — объединенные военные командования, несущие оперативную ответственность за определенный регион или функцию, — используют ИИ для просеивания множества секретных и несекретных данных для выявления моделей поведения и прогнозирования будущих международных событий. В разведывательном сообществе ИИ помогал аналитикам предсказывать вторжение России в Украину на месяцы вперед, что позволило Соединенным Штатам предупредить мир и лишить президента России Владимира Путина элемента неожиданности. В Стратегическом командовании США искусственный интеллект, разработанный компанией Rhombus Power (где я являюсь советником), используется для предупреждения чиновников о перемещении ракет с ядерными боеголовками, которые в прошлом часто ускользали от обнаружения.
Предиктивный ИИ также может дать Вашингтону лучшее понимание того, что могут думать его потенциальные противники, особенно лидеры в Пекине. В отличие от разгара холодной войны, когда существовали легионы экспертов по советскому процессу принятия решений, Соединенные Штаты до сих пор выясняют, как руководство Китая переводит политику в конкретные действия. Разведывательное сообщество может, например, разработать большую языковую модель, которая будет включать в себя все доступные тексты и речи китайских лидеров, а также доклады американской разведки об этих цифрах, а затем имитировать то, как президент Китая Си Цзиньпин может принять решение о проведении заявленной политики. Аналитики могли бы задать модели конкретные вопросы: «При каких обстоятельствах президент Си Цзиньпин будет готов применить силу против Тайваня?» — и предвидеть потенциальные ответы, основанные на огромном количестве данных из большего количества источников, чем любой человек когда-либо мог бы быстро синтезировать. Они могли бы даже попросить модель составить карту того, как может развиваться кризис и как различные решения повлияют на результат. Полученные выводы могут быть полезны для информирования аналитиков и политиков при условии, что обучающие наборы будут прозрачными (то есть они ссылаются на источники данных, лежащие в основе ключевых суждений) и надежными (не подверженными «галлюцинациям» — необъяснимым выводам, сделанным ИИ).
Искусственный интеллект вызвал революцию в области безопасности, которая только начинает разворачиваться.
Сотрудники разведки уже ежедневно используют ИИ для просеивания тысяч фотографий и видео. В прошлом аналитикам приходилось просматривать тысячи часов полнометражного видео, чтобы найти и пометить объекты, представляющие интерес, будь то скопление танков или рассредоточенные мобильные ракеты. Но с помощью ИИ разработчики могут обучить модель изучать весь этот материал и идентифицировать только те объекты, которые ищет аналитик — обычно за считанные секунды или минуты. Аналитик также может настроить модель искусственного интеллекта на отправку оповещения всякий раз, когда в заданной географической области обнаруживается новый объект, представляющий интерес. Эти инструменты «компьютерного зрения» позволяют аналитикам тратить больше времени на то, что могут делать только люди: применять свой опыт и суждения для оценки значения и последствий того, что обнаруживает ИИ. По мере того, как эти модели становятся все более точными и надежными, они могут помочь американским командирам на местах принимать критически важные оперативные решения гораздо быстрее, чем противник может отреагировать, что дает американским силам огромное, возможно, даже решающее преимущество.
ИИ может поддерживать военные операции и другими способами. Например, если противник заглушит или атакует сети командования, контроля и связи США, ИИ может создать интеллектуальное переключение коммутации и маршрутизации, которое перенаправит поток информации между датчиками, лицами, принимающими решения, и стрелками, чтобы убедиться, что они остаются на связи и могут поддерживать ситуационную осведомленность. Наличие этих возможностей будет иметь решающее значение для обеспечения того, чтобы Вашингтон и его союзники могли принимать лучшие решения быстрее, чем их противники, даже в разгар боевых действий.
ИИ может еще больше помочь США и союзным силам, расширяя работу отдельных военнослужащих на местах. Некоторые приложения искусственного интеллекта, находящиеся в настоящее время в разработке, позволяют одному человеку-оператору управлять несколькими беспилотными системами, такими как рой дронов в воздухе, на воде или под водой. Например, летчик-истребитель может использовать рой летающих дронов, чтобы сбить с толку или вывести из строя радар и систему противовоздушной обороны противника. Командир подводной лодки может использовать подводные беспилотные аппараты для ведения разведки в хорошо защищенной зоне или для поиска подводных мин, угрожающих кораблям США и их союзников. Пентагон недавно объявил о своей программе дронов «Репликатор», которая обещает развернуть в течение следующих двух лет тысячи небольших, умных, недорогих, одноразовых, автономных систем.
В конфликте с Китаем из-за Тайваня это взаимодействие человека и машины может иметь решающее значение. Если Пекин решит применить силу, чтобы захватить остров, у него будет преимущество в том, что он будет сражаться на своем собственном заднем дворе, что позволит ему легче сосредоточить силы. Соединенные Штаты, тем временем, будут посылать свои подразделения на большие расстояния и в гораздо меньшем количестве. Если вооруженные силы США смогут дополнить свои пилотируемые платформы, такие как истребители, бомбардировщики, корабли и подводные лодки, большим количеством относительно дешевых беспилотных систем, это может в какой-то степени компенсировать этот сравнительный недостаток и значительно осложнить операции китайских военных.
ИГРАЙТЕ ПРАВИЛЬНО
Пекин, конечно, не намерен уступать технологическое доминирование Вашингтону. Он усердно работает над разработкой собственных передовых военных приложений с искусственным интеллектом. Китай вкладывает значительные средства во многие из тех же сценариев использования ИИ, что и Соединенные Штаты, такие как наблюдение, идентификация целей и рои дронов. Разница в том, что она может быть не связана теми же этическими ограничениями, что и Соединенные Штаты и их союзники, особенно когда речь идет об использовании полностью автономных систем вооружений.
В гонке за технологическим превосходством у Китая есть несколько очевидных преимуществ. В отличие от Вашингтона, Пекин может диктовать экономические приоритеты своей страны и выделять любые ресурсы, которые он сочтет необходимыми для достижения целей в области ИИ. Политика национальной безопасности Китая поощряет китайских хакеров, чиновников и сотрудников воровать западную интеллектуальную собственность, и Пекин не стесняется пытаться завербовать ведущих западных технологов для работы с китайскими институтами. Поскольку Китай проводит политику «слияния гражданских и военных», которая устраняет барьеры между гражданским и военным секторами, Народно-освободительная армия Китая может использовать работу китайских экспертов и компаний, когда захочет. А к 2025 году Китай будет выпускать почти в два раза больше кандидатов наук в области науки, технологий, инженерии и математики, чем Соединенные Штаты, наводняя экономику Китая, в частности, талантливыми учеными-компьютерщиками.
Но у Соединенных Штатов есть свои уникальные сильные стороны. Рыночная экономика страны и более открытая политическая система дают разработчикам простор для творчества. Компания имеет непревзойденные инновационные экосистемы в Кремниевой долине, столичном регионе Остина, коридоре Массачусетского шоссе 128 и в других местах. Соединенные Штаты также имеют динамичную экосистему венчурного капитала и прямых инвестиций, которая привлекает несравненные внутренние и международные инвестиции. Он является домом для многих ведущих университетов мира, что позволяет ему привлекать и удерживать одни из лучших в мире технических талантов. Действительно, у половины стартапов в Кремниевой долине есть хотя бы один основатель, который является иммигрантом. Даже среди тех, кто жалуется на быстрый прогресс Китая в области искусственного интеллекта, мало кто из тех, кто готов променять руку Соединенных Штатов на руку Китая. Но почти все они согласятся с тем, что Соединенным Штатам нужно лучше разыгрывать свои карты, чтобы победить.
Для этого Министерству обороны и разведывательному сообществу придется вкладывать больше средств в ускорение внедрения ИИ. Они могут начать с создания общих систем цифровой инфраструктуры, использующих одни и те же стандарты для обеспечения функциональной совместимости. Инфраструктура будет включать в себя облачные технологии и сервисы; единые стандарты данных; валидированные наборы данных; общий доступ к защищенным программным стекам; сложные инструменты для тестирования, оценки и валидации моделей ИИ; а также безопасные интерфейсы прикладного программирования, которые контролируют, кто и к какой информации получает доступ на различных уровнях классификации. Цель состоит в том, чтобы предоставить разработчикам данные, алгоритмы, инструменты и вычислительную мощность (или высокоскоростные вычислительные мощности), необходимые им для создания, тестирования, проверки и использования новых инструментов ИИ.
Американский солдат с системой отображения данных, Кэмп-Пендлтон, Калифорния, март 2018 года Rhita Daniel / U.S. Marine Corps / Reuters
Конечно, эти инструменты будут хороши настолько, насколько хороши люди, которые ими управляют, и прямо сейчас в Министерстве обороны нет сотрудников, разбирающихся в цифровых технологиях. Мало кто из сотрудников понимает ИИ достаточно, чтобы должным образом управлять его использованием, тестировать и оценивать инструменты ИИ, чтобы убедиться, что они соответствуют стандартам Пентагона «ответственного ИИ», или оценивать, какие модели ИИ лучше всего отвечают потребностям вооруженных сил или Министерства обороны — одного из крупнейших предприятий в мире.
Чтобы привлечь больше талантливых специалистов в области ИИ и более эффективно использовать уже имеющуюся у него технологическую рабочую силу, Министерству обороны необходимо будет улучшить то, как оно нанимает и управляет сотрудниками, обладающими цифровыми навыками. Пентагон может начать с того, чтобы последовать советам Комиссии национальной безопасности по ИИ и создать цифровой корпус (по образцу Армейского медицинского корпуса) для организации, обучения и оснащения технологов. Кроме того, все существующие военные академии должны начать преподавать основы ИИ, а Пентагон также должен создать американскую академию цифровой службы, которая будет обучать и совершенствовать начинающих гражданских технологов, предлагая им бесплатное образование в колледже в обмен на обязательство служить в правительстве в течение как минимум пяти лет после окончания учебы. Наконец, Министерство обороны должно создать цифровой резервный корпус, в котором технические работники со всех концов Соединенных Штатов могли бы добровольно служить своей стране.
Однако Пентагон никогда не сможет привлечь столько экспертов в области ИИ, сколько частный сектор. Поэтому оборонный истеблишмент должен улучшить то, как он использует таланты извне. Во-первых, Министерству обороны следует углубить диалог с технологическими компаниями и факультетами компьютерных наук ведущих университетов. Это также должно снизить некоторые устаревшие барьеры для технологических компаний, ведущих бизнес с правительством. Для этого чиновники Министерства обороны должны переосмыслить то, как они покупают программные продукты и услуги, включая ИИ. Вместо того, чтобы тратить годы на разработку фиксированного набора очень специфических требований, как это делает министерство при закупке военной техники, оно должно быстро определить конкретные проблемы, которые оно пытается решить, и общие стандарты, которым должны соответствовать любые предлагаемые решения, а затем позволить компаниям предлагать решения в процессе конкурентных торгов. Кроме того, необходимо убедиться в том, что люди, которые будут использовать конкретные инструменты ИИ, могут предоставлять обратную связь по мере разработки и тестирования моделей.
На самом деле, Пентагон должен создать специальную карьерную траекторию для профессионалов по закупкам, которые хотят специализироваться на искусственном интеллекте и других коммерчески ориентированных технологиях. Большая часть нынешнего корпуса закупок Министерства обороны обучена закупкам сложных систем вооружений, таких как подводные лодки, ракеты и самолеты, что требует тщательного внимания к тому, соответствуют ли подрядчики жестким спецификациям, требованиям к стоимости и запланированным этапам. В результате, большинство этих профессионалов (по понятным причинам) крайне не склонны к риску — они не обучены и не заинтересованы в покупке быстро развивающихся коммерческих технологий или в срыве существующей многолетней программы приобретения для интеграции более эффективной новой технологии. Поэтому Пентагон должен создать новую когорту экспертов по закупкам, которые специально обучены покупать такого рода системы. Эти кадры должны рассматриваться как «зеленые береты» в силах закупок, а их члены должны вознаграждаться и продвигаться по службе в зависимости от их способности быстро поставлять и масштабировать необходимые коммерческие технологии, такие как ИИ.
Пекин не намерен уступать технологическое доминирование Вашингтону.
Хотя внутренние реформы помогут Пентагону ускорить прогресс, чиновникам министерства обороны также потребуется постоянная поддержка Конгресса, чтобы идти в ногу со своими китайскими коллегами. С этой целью Конгресс должен предоставить Министерству обороны более гибкое финансирование, которое позволит ему оптимально управлять программами ИИ. Большая часть ассигнований Пентагона фиксирована: когда Конгресс финансирует программу, министерство не может просто перенаправить деньги на что-то другое. Но искусственный интеллект развивается так быстро и в таком большом количестве различных направлений, что чиновникам министерства обороны нужно больше полномочий по перепрограммированию и более гибкое финансирование, чтобы они могли быстро выводить деньги из неэффективных проектов и реинвестировать их в более перспективные, уведомляя об этом Конгресс. Такой подход имеет решающее значение для того, чтобы Пентагон мог внедрять ИИ с большей гибкостью и скоростью.
В то же время Конгресс должен предоставить Главному управлению по цифровым технологиям и искусственному интеллекту промежуточное финансирование, чтобы помочь перспективным пилотным проектам ИИ пересечь так называемую долину смерти — трудный период между моментом, когда проект демонстрирует успех, и моментом, когда министерство готово сделать его полномасштабной программой. Американские военные просто не могут позволить себе отложить внедрение важнейшего инструмента искусственного интеллекта, который появится в 2023 году, до бюджета на 2025 год или позже.
Соединенным Штатам также необходимо будет продолжать привлекать лучшие технические таланты в мире, в том числе путем реформирования элементов иммиграционной системы США. Студенты, изучающие науку и технику, могут захотеть приехать и остаться в Соединенных Штатах, но византийские иммиграционные правила делают это невозможным для многих из них. Образовательные визы, например, не позволяют иностранным студентам оставаться в Соединенных Штатах более трех лет после окончания учебы. В результате получается извращенная динамика: американские учебные заведения обучают многих лучших в мире технических специалистов, а затем отправляют их в другие страны. Многие из них китайцы и возвращаются в Китай.
Кроме того, введенные Конгрессом ограничения на выдачу виз H-1B — визы, которую Соединенные Штаты чаще всего предлагают квалифицированным работникам, — означают, что страна может принять лишь небольшой процент людей, подавших заявления. Например, из 758 994 подходящих электронных регистраций, полученных в ходе лотереи H-1B 2023 года, был выбран только 110 791 человек (или менее 15 процентов). Короче говоря, Соединенные Штаты не пускают столь необходимые иностранные таланты, которые охотно и значимо способствовали бы способности страны конкурировать в области искусственного интеллекта и других критически важных технологий.
ВЫСОКИЙ РИСК, ВЫСОКАЯ НАГРАДА
ИИ необходим для будущей безопасности Соединенных Штатов. Но это также таит в себе серьезные риски. ИИ уже ускоряет распространение дезинформации в Интернете и способствует непреднамеренной дискриминации при приеме на работу. Ученые-компьютерщики утверждают, что это также может обеспечить возможность автоматических кибератак на «машинных скоростях». Химики показали, что ИИ может синтезировать химическое оружие, а биологи выразили обеспокоенность тем, что его можно использовать для разработки новых патогенов или биологического оружия. Риски настолько серьезны, что даже лидеры отрасли искусственного интеллекта выразили тревогу. В мае 2023 года руководители почти всех крупных лабораторий искусственного интеллекта в США подписали письмо, предупреждающее, что их изобретения могут представлять реальную угрозу человечеству.
Действительно, национальная безопасность – это та сфера человеческой деятельности, где риски, связанные с ИИ, наиболее велики. Например, ИИ-модели могут ошибочно идентифицировать людей или объекты в качестве целей, что приводит к непреднамеренным смертям и разрушениям во время конфликта. Модели искусственного интеллекта «черного ящика», чьи рассуждения не могут быть адекватно поняты или объяснены, могут привести к тому, что военные планировщики будут принимать опасные решения. Этот риск будет наиболее острым, если ИИ, разработанный для одной ситуации, будет применен к другой без достаточного тестирования и надзора. То, что может быть совершенно рациональным и ответственным в одной ситуации, может быть иррациональным и опасным в другой.
Риски возникают не только из-за плохо спроектированных или небрежно используемых систем. Соединенные Штаты могут проявлять привередливость в разработке и внедрении ИИ, но их противники найдут способы исказить данные США, что приведет к выходу систем из строя. Например, если противнику удастся ввести в заблуждение инструмент компьютерного зрения с поддержкой ИИ и нацелить его на гражданский автомобиль, а не на военный, это может привести к тому, что Соединенные Штаты непреднамеренно нанесут вред гражданскому населению в зоне конфликта, подорвав доверие к США и моральный авторитет. Противник также может исказить данные таким образом, что это ухудшит производительность системы вооружения с поддержкой ИИ или приведет к ее отключению.
Пентагон знает об этих рисках и в феврале 2020 года выпустил набор этических принципов, регулирующих использование ИИ. Один из принципов призывал сотрудников департамента проявлять осмотрительность и осторожность при разработке, развертывании и использовании возможностей ИИ. Другой сказал, что Министерство обороны постарается «свести к минимуму непреднамеренную предвзятость в возможностях ИИ». Третий призвал к тому, чтобы весь ИИ создавался и использовался таким образом, чтобы его можно было понять и объяснить, с использованием данных и методологий, которые были бы прозрачными и проверяемыми. Кроме того, руководители оборонных ведомств поручили своим сотрудникам убедиться в том, что системы ИИ тщательно проверяются на безопасность, защищенность и эффективность; что ИИ-системы назначаются для четко определенных целей; и что системы ИИ могут быть отключены или деактивированы, если они демонстрируют непреднамеренное поведение.
Беспилотник в небе над Эйн-Шемером, Израиль, июль 2023 г. Amir Cohen / Reuters
Что касается автономного и полуавтономного оружия, Министерство обороны выпустило еще более конкретные рекомендации. Руководство Пентагона поручило командирам и операторам проявлять осторожность в отношении оружия с поддержкой ИИ, в том числе путем обеспечения того, чтобы это оружие использовалось таким образом, чтобы оно соответствовало параметрам обучения модели и правилам ведения боя для операции, в которой используется ИИ. Правила Министерства обороны также предусматривают, что командиры используют ИИ в соответствии с законами и обычаями войны. Например, любое оружие с поддержкой ИИ должно быть дискриминационным, способным различать комбатантов и мирных жителей на поле боя и способным избегать преднамеренного нацеливания на последних. Пентагон также запретил использование искусственного интеллекта в своих системах командования и управления ядерным оружием и призвал другие ядерные державы сделать то же самое.
Среди руководства оборонного сообщества США эти правила «ответственного ИИ» достигли большого консенсуса. Но их применение на практике является непростой задачей, особенно учитывая размер оборонного аппарата Соединенных Штатов. Пентагон начал этот процесс с создания руководящего органа высокого уровня, начав создавать инфраструктуру данных и цифровой инфраструктуры для поддержки различных приложений ИИ, наращивая возможности тестирования, оценки и проверки, необходимые для обеспечения соответствия принципам ИИ Министерства обороны, и расширяя ИИ информированность всего отдела. Этот процесс внедрения все еще находится в зачаточном состоянии. Но политические рамки обеспечивают прочную основу, на которой можно строить.
Тем не менее, Пентагон поступил бы мудро, если бы еще больше усилил эти руководящие принципы. Например, чиновники Министерства обороны должны потребовать, чтобы все поставщики ИИ предоставляли Министерству обороны полную прозрачность происхождения данных, которые они используют в своих обучающих программах. Кроме того, департамент должен убедиться в том, что поведение любой модели ИИ, которую он принимает, объяснимо (полностью понятно пользователям и разработчикам), не подавляя инновации. Это можно сделать, усовершенствовав методы тестирования, оценки и верификации систем. Министерство также должно масштабировать и расширять работу, проводимую Агентством перспективных оборонных исследовательских проектов (Defense Advanced Research Projects Agency) — одним из подразделений, ответственных за разработку новых технологий для военных, — над тем, чтобы инструменты ИИ были объяснимы и ответственны по своей природе. Другими словами, этические принципы министерства следует рассматривать как обязательные черты, которые с самого начала определяют то, как разрабатываются модели защитного ИИ.
Американские учебные заведения обучают многих из лучших в мире технических экспертов, а затем отправляют их в другие страны.
Но оборонное сообщество США не сможет ускорить внедрение ИИ, если общественность не поверит в то, что он будет использовать ИИ эффективными, ответственными, этичными и законными способами. В противном случае, когда применение ИИ в первый раз приведет к очень плохому решению или серьезным непредвиденным последствиям на поле боя, военные вряд ли будут доверять ему, а политики и законодатели, скорее всего, приостановят или запретят его использование. Поэтому Министерство обороны должно увеличить свои инвестиции в исследования и разработки в области безопасности и защиты ИИ. Она должна быть прозрачной в отношении того, для чего она будет и не будет использовать ИИ. Кроме того, Пентагону следует подумать о том, чтобы заставить своих поставщиков устанавливать ограничения на то, как они разрабатывают ИИ. Например, если компания хочет предоставить ИИ военным, Министерство обороны может потребовать, чтобы она соответствовала строгим стандартам защиты данных и кибербезопасности. Поступая таким образом, Пентагон может помочь сделать ИИ более безопасным не только для вооруженных сил, но и для всех.
Соединенные Штаты, конечно, не могут в одиночку гарантировать, что ИИ разрабатывается и используется ответственно. Другие страны, в том числе конкуренты, также должны будут принять политические ограничения и нормы. В ноябре 2021 года 193 страны одобрили первое в мире глобальное соглашение об этике искусственного интеллекта. Оно включало в себя принцип, согласно которому страны должны гарантировать человеческий надзор и деятельность в отношении всего ИИ.
Несмотря на то, что это соглашение является важной основой, Соединенным Штатам следует искать площадки для обсуждения ИИ со своими потенциальными противниками, особенно с Китаем, точно так же, как они нашли способы говорить о ядерном оружии и других формах контроля над вооружениями с Советским Союзом во время холодной войны. Чтобы добиться успеха, Вашингтону также придется тесно сотрудничать со своими союзниками и партнерами, чтобы убедиться, что все они находятся на одной волне. Страны, которые договорятся о наборе норм в области ИИ, должны быть готовы угрожать нарушителям серьезными издержками, включая многосторонние экономические санкции, исключение из международных форумов и судебные иски для привлечения виновных к ответственности за ущерб. Например, субъекты, нарушающие правила ИИ, могут быть обвинены в федеральном суде США, как это было в 2014 году с пятью китайскими хакерами за проведение кибератак на американские компании. Государства, нарушающие эти правила, могут столкнуться с потенциальным возмездием за любой причиненный вред, включая, в крайних случаях, военные действия.
НЕОБХОДИМОСТЬ ОТВЕТСТВЕННОЙ СКОРОСТИ
В мире микроэлектроники специалисты часто говорят о законе Мура: принципе, согласно которому количество транзисторов на чипах удваивается каждые два года, в результате чего получаются экспоненциально более мощные устройства. Закон помогает объяснить быстрый рост многих технологических инноваций, включая смартфоны и поисковые системы.
В сфере национальной безопасности прогресс ИИ создал еще один вид закона Мура. Кто бы ни овладел первыми навыками организации, внедрения и институционализации использования данных и искусственного интеллекта в своих операциях в ближайшие годы, он добьется экспоненциального прогресса, что даст ему значительные преимущества перед его противниками. Тот, кто первым внедрит ИИ в большом масштабе, скорее всего, будет иметь более быстрый цикл принятия решений и более качественную информацию для принятия решений. Его сети, вероятно, будут более устойчивыми при атаке, сохраняя его способность поддерживать ситуационную осведомленность, защищать свои силы, эффективно поражать цели и защищать целостность своего командования, управления и связи. Он также сможет управлять роями беспилотных систем в воздухе, на воде и под водой, чтобы сбить с толку и сокрушить противника. Соединенные Штаты не могут позволить себе отстать.
Но аппарат национальной безопасности также не может позволить себе быть безрассудным. Без надлежащих мер безопасности модели ИИ могут причинить всевозможный непреднамеренный вред. Системы-изгои могут даже убивать американских военнослужащих или безоружных гражданских лиц в районах боевых действий или рядом с ними. Таким образом, Соединенные Штаты оказались перед дилеммой. Ставки замедления ИИ неприемлемо высоки, как и ставки в гонке вперед без необходимых мер предосторожности.
Американские политики, похоже, понимают этот парадокс. Лидеры Конгресса знают, что если они будут регулировать ИИ слишком жесткой рукой, они могут побудить лучших новаторов в области ИИ покинуть Соединенные Штаты, чтобы работать там, где меньше ограничений, и тогда Соединенные Штаты отстанут от своих конкурентов. Но и демократические, и республиканские политики также знают, что определенное регулирование и надзор необходимы для обеспечения безопасного и ответственного внедрения ИИ. Палата представителей и Сенат проводят заседания для обучения своих членов и назначают слушания, чтобы получить советы экспертов. Эти усилия по достижению двухпартийного консенсуса перед принятием законов заслуживают аплодисментов.
Тем не менее, понимание проблемы – это только первый шаг. Чтобы решить эту проблему — сбалансировать потребность в скорости с потребностью в безопасности — директивным органам придется внедрить более эффективные подходы к ускорению внедрения, а также к обеспечению безопасности. В противном случае американцы рискуют оказаться в мире, где опасность искусственного интеллекта растет по спирали, а мощь и влияние США снижаются.