Правовое регулирование AI в разных странах
В этом году модели генеративного AI, такие как ChatGPT, Bard и Bing, все они доступны для общественности, принесли искусственный интеллект на передний план. Теперь правительства, начиная от Китая и заканчивая Бразилией и Израилем, пытаются понять, как использовать потенциал AI, удерживая его худшие качества и разработав правила его использования в повседневной жизни.
Некоторые страны, в том числе Израиль и Япония, ответили на его стремительный рост, чётко определив существующие правила по защите данных, конфиденциальности и авторского права - в обоих случаях создав почву для использования защищённого авторским правом контента для тренировки AI. Другие, например, Объединенные Арабские Эмираты, выпустили неясные заявления по стратегии AI, или создали рабочие группы по лучшим практикам AI, и опубликовали проекты законодательства для публичного обсуждения и рассмотрения.
Иные же страны по-прежнему предпочитают подождать, хотя лидеры отрасли, включая OpenAI, создателя чат-бота ChatGPT, призывали к международному сотрудничеству по регулированию искусственного интеллекта. В мае компания выпустила заявление от своего CEO и двух со-основателей, в котором они выразили опасения по поводу "возможности экзистенциального риска" связанного с суперинтеллегенцией - гипотетическим существом, чьи интеллектуальные способности превосходят человеческие.
Несмотря на это, по всему миру очень мало законов, специально направленных на регулирование ИИ. Здесь представлены некоторые способы, которыми законодатели из различных стран пытаются решить вопросы, связанные с использованием AI.
Бразилия
Бразильский законопроект о ИИ - это тщательно разработанный документ, который является результатом трёх лет предложений и законопроектов по данному вопросу. Документ, выпущенный в конце последнего года в 900-страничном отчете сенатского комитета по ИИ, детально описывает права пользователей, взаимодействующих с ИИ-системами, и предоставляет руководящие принципы для категоризации различных типов AI на основе риска, который они представляют для общества.
Фокус законопроекта на правах пользователей ставит ответственность за информацию об ИИ-системах на производителей. Пользователи имеют право знать, что они взаимодействуют с ИИ, а также право на объяснение о том, как AI пришёл к определённому решению или рекомендации. Пользователи также могут оспорить решения ИИ или потребовать вмешательства человека, особенно в тех случаях, когда AI-решение может иметь значительное влияние на пользователя, например, системы управления автономных автомобилей, критерии оценки приема на работу, оценки кредитов или биометрической идентификации.
Разработчики ИИ обязаны проводить риск-анализы до того, как выпустить AI-продукт на рынок. Высшая категория риска относится к любым ИИ-системам, использующим эксплуатирующимся в областях, связанных с безопасностью или способных повлиять на жизнь и здоровье человека; такие системы запрещены в принципе. Законопроект об ИИ также описывает возможные "высокорискованные" области применения ИИ, включая сферу здравоохранения, биометрической идентификации и оценки кредитов. Риск-анализы высокорисковых AI-продуктов публикуются в государственном базе данных.
Все разработчики ИИ отвечают за ущерб, причиненный их AI-системами, однако разработчики "высокорискованных" продуктов придерживаются более высоких стандартов ответственности.
Китай
Китай опубликовал проект правил для генеративных ИИ и открыл его для общественного обсуждения. В отличие от большинства других стран, в проекте правил Китая отмечается, что генеративная модель AI должна отражать "Корневые ценности социализма".
В нынешнем виде проекта правил говорится, что разработчики "несут ответственность" за результаты, созданные их AI. Согласно переводу документа, выполненному проектом DigiChina из Standford University, в правилах также закреплены ограничения на использование для тренировки данных, а разработчики несут юридическую ответственность, если их данные нарушают интеллектуальную собственность кого-либо. Правила также требуют, чтобы ИИ-услуги генерировали только "истинный и точный" контент.
Эти предложенные правила дополняют уже существующие законы, касающиеся дипфейков, рекомендательных алгоритмов и безопасности данных, давая Китаю преимущество перед другими странами, которые начинают писать новые законы с нуля. Кроме того, китайский интернет-регулятор в августе объявил о ограничениях на использование технологии распознавания лиц.
Китай поставил амбициозные цели для своих технологий и AI: в документе "Next Generation Artificial Intelligence Development Plan" от 2017 года, опубликованном китайским правительством, авторы пишут, что к 2030 году "теории, технологии и приложения AI в Китае должны достичь мирового лидирующего уровня".
Евросоюз
В Европейском Союзе в июне Европейский Парламент проголосовал за так называемый "Закон об ИИ". Подобно бразильскому проекту законодательства, Закон об ИИ категоризует AI по трем способам: как неприемлемое, высокий и ограниченный риск.
ИИ-системы, отнесенные к неприемлемому, считаются угрозой для общества. (Европейский парламент приводит в качестве примера "управляемые голосом игрушки, поощряющие опасное поведение у детей".) Такие системы запрещены в соответствии с Законом о ИИ.
Высокорисковые ИИ-системы требуют одобрения европейскими должностными лицами до поступления на рынок, а также на протяжении всего жизненного цикла продукта. Этими продуктами являются ИИ-системы, связанные с правоохранительными органами, управлением границами и отбором персонала.
AI-системы, отнесенные к ограниченному риску, должны быть соответствующим маркированы, чтобы предупредить пользователя, принимающего решения, что ответ сформулирован искусственным интеллектом.
Израиль
В Израиле в 2022 году Министерство инноваций, науки и технологий опубликовало проект политики по регулированию ИИ. Авторы документа описывают его как "моральный и деловый ориентир для любой компании, организации или правительственного органа, заинтересованного в области искусственного интеллекта".
Израильская политика по ИИ утверждает, что развитие и использование искусственного интеллекта должно уважать "законность, основные права и общественные интересы, и, в частности, сохранять человеческие достоинство и право на частную жизнь".
В более широком плане политика поощряет саморегуляцию и "мягкий" подход к вмешательству правительства в развитие ИИ. Вместо предложения единообразной, отраслевой законодательной базы, документ предлагает, чтобы отраслевые регуляторы рассматривали адаптированные мероприятия, когда это необходимо, и чтобы правительство стремилось к внедрению практик других стран в области ИИ.
Италия
В марте, Италия временно запретила ChatGPT, сославшись на озабоченность по поводу сбора и обработки пользовательских данных.
С тех пор, Италия выделила приблизительно 33 миллиона долларов для поддержки работников, находящихся под угрозой оказаться без работы в результате цифровой трансформации - в том числе, но не ограничиваясь внедрением искусственного интеллекта. Около одной трети этой суммы будет направлено на обучение работников, чьи профессии могут стать устаревшими из-за автоматизации производств. Оставшаяся часть пойдёт на обучение безработных или экономически неактивных людей цифровым навыкам.
Япония
Как и Израиль, Япония пошла по пути "мягкого законодательства" в отношении регулирования AI: страна не имеет прецедентов, определяющих конкретные способы использования AI. Вместо этого, Япония выбрала стиль поведения "ждать и смотреть" - то есть, не создавать предубедительных законов, ограничивающих развитие AI.
В настоящее время, разработчики AI в Японии должны ориентироваться на побочные законы - такие как законы о защите данных - в качестве руководящих принципов. Например, в 2018 году японские законодатели пересмотрели Закон об авторском праве, позволив использовать защищённые авторским правом материалы для анализа данных. С тех пор законодатели уточнили, что изменения также распространяются на AI-тренировочные данные, открывая дорогу для ИИ-компаний в использовании чужой интеллектуальной собственности в качестве обучающего материала. Кстати, Израиль пошёл по этому же пути.
Объединённые Арабские Эмираты
В стратегии Национальной программы по искусственному интеллекту в Объединенных Арабских Эмиратах регуляторные аспекты занимают небольшое место, но в то же время сегодня ОАЭ является одним из лидеров в области искусственного интеллекта.
В кратком обзоре национальных подходов к вопросам, связанным с данной темой, таким как управление данными, этика и кибербезопасность, в стране будет создан Совет по искусственному интеллекту и блокчейн технологиям. Данный орган будет следить за международными тенденциями в области регулирования AI и интегрировать лучшие практики.
В настоящее время стратегия развития искусственного интеллекта в ОАЭ, в основном, направлена на привлечение AI-талантов и интеграции технологий в ключевые отрасли, такие как энергетика, туризм и здравоохранение. Этот подход, по мнению авторов документа, соответствует стремлению ОАЭ стать "лучшей страной в мире к 2071 году".
Рон Амадео
20/09.2023