Миру нужно международное агентство по искусственному интеллекту, говорят два эксперта по искусственному интеллекту

Гэри Маркус и Анка Руэль утверждают, что глобальное управление должно быть приоритетом для устранения рисков предвзятости, дезинформации или чего-то еще хуже

Новые инструменты генеративного искусственного интеллекта, такие как Chatgpt от Openai, самое быстрорастущее потребительское интернет-приложение всех времен, покорили мир. Они используются во всем, от образования до медицины, и играть с ними невероятно весело. Хотя современные системы искусственного интеллекта способны на впечатляющие подвиги, они также сопряжены с риском. Европол предупредил, что они могут значительно увеличить киберпреступность. Многие эксперты по искусственному интеллекту глубоко обеспокоены тем, что они могут создать цунами дезинформации, создав непосредственную угрозу президентским выборам в США в 2024 году и, в конечном счете, самой демократии, создав атмосферу полного недоверия. Ученые предупредили, что эти новые инструменты могут быть использованы для разработки новых смертельных токсинов. Другие предполагают, что в долгосрочной перспективе может возникнуть реальный риск для самого человечества.

Одна из ключевых проблем современных систем искусственного интеллекта заключается в том, что они в первую очередь представляют собой черные ящики, часто ненадежные и трудные для интерпретации, которые рискуют выйти из-под контроля. Например, известно, что основная технология, лежащая в основе таких систем, как Chatgpt, большие языковые модели (llms), «галлюцинирует», создавая ложные утверждения. Chatgpt, например, ложно обвинил профессора права в причастности к сексуальным домогательствам, очевидно, сбитый с толку статистическими, но не относящимися к делу связями между фрагментами текста, которые на самом деле не связаны друг с другом. После того, как в статье попытались прояснить, что пошло не так, Bing Chat допустил аналогичную ошибку и приписал ее информации в USA Today о том, что чат-бот полностью отстал.

Эти системы также могут использоваться для преднамеренных злоупотреблений, от срыва выборов (например, путем манипулирования тем, что говорят или пишут кандидаты) до распространения медицинской дезинформации. В недавнем анализе gpt-4, самого передового проекта Openai, компания признала наличие 12 серьезных проблем, не предоставив надежных решений ни для одной из них.

Только за последний год по всему миру было принято 37 нормативных актов, в которых упоминается ИИ; Италия зашла так далеко, что запретила Chatgpt. Но глобальной координации мало. Даже в некоторых странах существует неразбериха, такая как законы разных штатов в Америке или предложение Великобритании отказаться от центрального регулирующего органа, в результате чего надзор разделен между несколькими агентствами. Неравномерное лоскутное одеяло с лазейками никому не приносит пользы и безопасности. Компании также не должны хотеть создавать разные модели ИИ для каждой юрисдикции и сталкиваться с собственной борьбой de novo, пытаясь ориентироваться в правовом, культурном и социальном контексте.

Тем не менее, существует множество соглашений об основных ответственных принципах искусственного интеллекта, таких как безопасность и надежность, прозрачность, объяснимость, интерпретируемость, конфиденциальность, подотчетность и справедливость. И почти все согласны с тем, что нужно что-то делать — только что опубликованный опрос, проведенный Центром управления ИИ, показал, что 91% репрезентативной выборки из 13 000 человек в 11 странах согласны с тем, что искусственным интеллектом необходимо тщательно управлять.

Именно в этом контексте мы призываем к немедленному созданию глобального, нейтрального, некоммерческого Международного агентства по искусственному интеллекту (IAAI) под руководством и при поддержке правительств, крупных технологических компаний, некоммерческих организаций, научных кругов и общества в целом, направленного на совместный поиск управленческих и технических решений для продвижения безопасных, надежных и мирных технологий искусственного интеллекта.

Время для такого агентства пришло, как заявил 16 апреля сам генеральный директор Google Сундар Пичаи. Как это может выглядеть? Каждая область и каждая отрасль будут разными, со своим собственным набором руководящих принципов, но многие из них будут включать как глобальное управление, так и технологические инновации. Например, люди давно согласились с тем, что следует избегать принятия решений о трудоустройстве на основе пола, и даже придумали некоторые меры в более раннем, более поддающемся толковании ИИ, например, требования к интерпретируемости Билля о правах ИИ, предложенного администрацией Байдена. Но в системах «черного ящика», таких как Chatgpt, существует широкий спектр вариантов использования без текущих средств правовой защиты. Люди могут, например, передать весь файл кандидата на работу и запросить мнение Chatgpt, но в настоящее время у нас нет возможности гарантировать, что Chatgpt избежит предвзятости в своих выводах. Организация, которую мы предполагаем, будет совместно решать, что делать с таким «нестандартным» использованием чат-ботов и другими вопросами политики, и в то же время разрабатывать технические инструменты для эффективного аудита.

Аналогичным образом IAAI может собрать экспертов и разработать инструменты для борьбы с распространением дезинформации. Что касается политики, можно было бы, например, задать вопрос о том, как можно наказывать за широкомасштабное распространение дезинформации. С технической стороны основное внимание должно быть сосредоточено на разработке автоматизированных или полуавтоматических инструментов для ответа на фундаментальные вопросы, такие как «Сколько дезинформации существует?», «Насколько быстро растет ее объем?» и «Насколько искусственный интеллект способствует возникновению таких проблем?» Существующие технологии лучше генерируют дезинформацию, чем обнаруживают ее. Потребуются значительные технические инновации, которые принесут большую общественную пользу, но могут представлять или не представлять в достаточной мере прямой коммерческий интерес — отсюда необходимость в независимой поддержке со стороны такой организации, как IAAI.

В качестве третьего, совсем недавнего примера, были разработаны системы с такими названиями, как Autogpt и Babyagi, которые позволяют любителям создавать сложные и трудно поддающиеся отладке (или даже понимания) сборки ненадежных систем искусственного интеллекта, контролирующих другие ненадежные системы искусственного интеллекта для достижения произвольных целей — практика, которая может оказаться или не оказаться безопасной. Как сказал Марек Роза, генеральный директор компании good.Ai, нам нужны новые технические идеи о том, «как повысить безопасность (упреждающую защиту) в мире, где миллиарды агентов ИИ… работают в приложениях и на серверах, а мы не знаем, о чем они говорят», что, возможно, требует своего рода «антивируса [программного обеспечения] против агентов ИИ». Глобальный альянс с ведущими экспертами и исследователями по вызову сможет дать быстрое и продуманное руководство по таким новым разработкам.

Разработка того вида глобального сотрудничества, который мы себе представляем, — это огромная работа. Необходимо участие многих заинтересованных сторон. Необходимо учитывать как краткосрочные, так и долгосрочные риски. Ни одно решение не будет успешным, если в нем не будут. участвовать как правительства, так и компании, и не только они: общественности всего мира нужно место за столом переговоров.

К счастью, прецедент такого глобального сотрудничества уже есть. Например, в конце Второй мировой войны ядерное оружие вызвало глубокие опасения и неуверенность в отношении того, как будет использоваться новая технология. В ответ 81 страна единогласно одобрила устав Международного агентства по атомной энергии о «содействии безопасным, надежным и мирным ядерным технологиям» с правом инспекции. Другой, более мягкой моделью, с меньшим акцентом на правоприменение, является Международная организация гражданской авиации, в которой страны-члены принимают свои собственные законы, но консультируются с глобальным агентством. Чтобы найти правильную модель и сделать правильный выбор, потребуются время, мудрость и сотрудничество.

Проблемы и риски, связанные с искусственным интеллектом, конечно же, очень разные и, к сожалению, до сих пор неизвестны. Оглядываясь назад, мы знаем, что Интернет мог бы быть разработан лучше с большей предусмотрительностью. Например, более ранние решения о том, как обращаться с конфиденциальностью и анонимностью, могли гарантировать, что культура троллинга будет меньше. Мы также знаем, что ранний выбор заблокирован. Наши решения сейчас, скорее всего, будут иметь долгосрочные последствия и должны приниматься обдуманно.

Учитывая, как быстро все движется, нельзя терять много времени. Глобальная, нейтральная некоммерческая организация при поддержке правительств, крупного бизнеса и общества является важным началом. ■

Гэри Маркус является почетным профессором Нью-Йоркского университета и был основателем и генеральным директором Geometric Intelligence, компании по машинному обучению, приобретенной Uber. Анка Руэль — аспирант в области компьютерных наук в Стэнфордском университете и член-основатель KIRA, аналитического центра, занимающегося продвижением ответственного ИИ.

Матеріали цього сайту доступні лише членам ГО “Відкритий ліс” або відвідувачам, які зробили благодійний внесок.

Благодійний внесок в розмірі 100 грн. відкриває доступ до всіх матеріалів сайту строком на 1 місяць. Розмір благодійної допомоги не лімітований.

Реквізити для надання благодійної допомоги:
ЄДРПОУ 42561431
р/р UA103052990000026005040109839 в АТ КБ «Приватбанк»,
МФО 321842

Призначення платежу:
Благодійна допомога.
+ ОБОВ`ЯЗКОВО ВКАЗУЙТЕ ВАШУ ЕЛЕКТРОННУ АДРЕСУ 

Після отримання коштів, на вказану вами електронну адресу прийде лист з інструкціями, як користуватись сайтом. Перевіряйте папку “Спам”, іноді туди можуть потрапляти наші листи.