Ассамблея Калифорнии, главный законодательный орган штата, направила противоречивый законопроект SB 1047 на подписание губернатору Гэвину Ньюсому.
Законопроект привлек к себе национальное внимание, поскольку им обозначена первая попытка установить ряд стандартов для разработки и использования компаниями генеративных моделей и других продуктов с использованием технологий искусственного интеллекта.
Кроме того, именно в штате Калифорния сосредоточено большинство крупных компаний и специалистов в области ИИ – в частности, компания OpenAI, популяризировавшая генеративные языковые модели благодаря своему ChatGPT.
В пользу принятия закона высказались ряд крупных фигур, среди которых Дарио Амодей, основатель компании Anthropic, которая занимается разработкой общих систем искусственного интеллекта и языковых моделей, придерживаясь при этом корпоративной этики ответственного использования ИИ. Принятие закона поддержал также Илон Маск, неоднократно отмечавший необходимость готовности к экзистенциальным рискам, которые могут нести технологии ИИ для человечества, а также их минимизации.
Противники законопроекта также представлены известными фигурами в индустрии и за ее пределами. Янн Лекун, главный специалист по ИИ в компании Meta, и другие представители ИИ-сообщества выразили обеспокоенность тем, что акцент закона на моделях, требующих высоких затрат и вычислительных ресурсов, может подавить более бюджетные инновации в этой области. Бывший спикер палаты представителей США и конгрессвумен от Калифорнии Нэнси Пелоси присоединилась к тем, кто считает, что принятие закона может негативно сказаться на инновационной экосистеме штата, особенно в отношении небольших разработчиков и открытых ИИ-моделей.
«Голос Америки» поговорил с замдиректора по законодательному активизму в «Фонде электронных рубежей» Хэйли Цукаяма о том, каковы причины для введения ограничительных мер в сфере ИИ разработок, чем они могут быть опасны для индустрии и приведут ли они к потере конкурентоспособности американских компаний в сравнении с лидерами разработок в сфере ИИ из других стран:
«Голос Америки»: Какие, на ваш взгляд, меры безопасности и ограничительные меры должны распространяться на компании, разрабатывающие ИИ, и их деятельность?
Хэйли Цукаяма: Все еще ведутся размышления о том, как должно выглядеть и в чем заключаться безопасное использование ИИ. В общем, нас больше интересует устранение тех вредоносных последствий ИИ, которые мы можем наблюдать уже сейчас, особенно в таких областях, как автоматизированное принятие решений. Это означает, что важно, чтобы люди понимали, когда эти инструменты используются в их отношении, чтобы они были достаточно проинформированы для того, чтобы дать согласие на использование их личных данных, и чтобы у них был способ взаимодействия с этими системами.
— Что вы думаете о законопроекте SB 1047, вызвавшем так много споров?
— Я бы сказала, что этот законопроект столкнулся с рядом трудностей. Он очень объемный и охватывает много аспектов. Думаю, что нам, вероятно, придется решать некоторые вопросы в будущем законодательстве, сосредоточившись на устранении неотложных, текущих угроз.
Законопроект, который сейчас находится на стадии подписания у губернатора Калифорнии, больше касается того, чтобы разработчики могли предоставить гарантии безопасности своих моделей еще в ходе работы над ними. То есть он скорее регулирует процесс разработки в целом, чем воздействие на отдельных субъектов.
— Считаете ли вы, что он окажет значительное влияние на разработку ИИ-технологий в штате?
— Это, безусловно, вызывает беспокойство, и мы разделяем эти опасения, особенно со стороны разработчиков с открытым исходным кодом. В законопроекте есть положения, которые в теории направлены лишь на крупные компании.
Однако мы слышали от небольших независимых разработчиков и разработчиков открытых моделей, что некоторые стандарты, сформулированные в законопроекте, вызывают у них тревогу. Даже при наличии элементов гибкости все равно существует риск, при котором разработчики с открытым исходным кодом или маленькие конкуренты могут посчитать инвестиции в создание таких технологий в штате слишком сложными для реализации.
— Как добиться того, чтобы свод ограничений, которым придется соответствовать американским компаниям, не повлиял на их конкурентоспособность на мировой арене, когда в других странах, например, в Китае, разработчики не будут обременены теми же правилами?
— Трудно представить, чтобы представители индустрии участвовали в обсуждении того, как регулировать самих себя. Но в данном случае, поскольку мы находимся на ранней стадии и в политических кругах пока мало понимания того, как разрабатываются инструменты ИИ и модели, то это хороший момент для того, чтобы объединиться и убедиться, что процесс обеспечения безопасности не только сильный и значимый, но и в действительности реализуемый.
Текст законопроекта действительно объемный и включает множество положений. В частности, отмечаются риски использования технологий ИИ для создания оружия массового уничтожения, включая биологическое, химическое и ядерное оружие.
Но даже при столь широком охвате аспектов использования технологии и её влияния на общество, по-прежнему остаётся открытым вопрос: возможно ли создать законодательные рамки для безопасного использования ИИ, если день за днем как разработчики, так и пользователи, находят все новые и новые способы его применения?
Форум