Расследования
Репортажи
Аналитика
  • USD98.06
  • EUR106.89
  • OIL74.59
Поддержите нас English
  • 824
Новости

Сенат Калифорнии одобрил преследование ИИ-компаний, если их продукты приносят вред. Этот закон может повлиять на работу OpenAI и Metа

Фото Solen Feyissa

Верхняя палата парламента Калифорнии приняла законопроект, регулирующий применение технологий искусственного интеллекта. Компании-разработчики таких технологий будут обязаны проверять свои модели на угрозы, связанные с хакерскими атаками, разработкой биологического оружия и нападением на критическую инфраструктуру. Хотя закон охватывает только юрисдикцию Калифорнии, его принятие важно, так как крупнейшие компании, подпадающие под него, — в частности OpenAI, Meta, Alphabet (Google) — зарегистрированы именно в этом штате. Кроме того, калифорнийские законы в этой сфере рассматриваются как эталон регулирования во всей стране.

Калифорнийский закон обязывает разработчиков таких моделей тестировать их на безопасность до того, как они будут представлены для публичного использования. В частности, предполагается тестирование на кибербезопасность, наличие опасных возможностей моделей и возможность их использования во вред кому-либо. Также компании должны будут отслеживать те же аспекты уже после того, как сделают какую-либо модель публичной. Сотрудники компаний будут подпадать под закон о «защите осведомителей» в случае, если они сделают публичной какую-то общественно значимую инсайдерскую информацию о компании.

Подходящие по критериям модели ИИ могут получить ограниченное освобождение от вышеперечисленных требований, если смогут продемонстрировать, что модель не может быть использована для:

  • управления химическим, биологическим, радиологическим или ядерным оружием таким образом, который приведет к массовым жертвам;
  • нанесения ущерба на сумму по крайней мере в пятьсот миллионов долларов посредством одной или нескольких кибератак на критическую инфраструктуру;
  • нанесения моделью искусственного интеллекта ущерба на сумму по крайней мере в пятьсот миллионов долларов посредством действий, которые со стороны человека могли бы быть признаны уголовным преступлением;
  • других угроз общественной безопасности, сравнимых по тяжести с перечисленными.

В случае, если компания-разработчик какой-либо «чрезвычайно мощной модели» принесет вред жителям штата Калифорния или нанесет урон общественной безопасности, генеральный прокурор штата сможет принять меры в отношении такой компании и подать на нее жалобу в суд. Кроме того, штат учредит консультативный совет, который должен будет поддерживать разработку безопасных и надежных моделей искусственного интеллекта с открытым исходным кодом.

Под закон подпадают модели, на обучение которых ушло более 10^26 FLOPs либо стоимость обучения которых составила более 100 млн долларов. Это сравнимо с принятым ранее в ЕС первым в мире законом, регулирующим подобные технологии. Таким образом, в эту категорию попадут модели как минимум уровня GPT-3.5 от OpenAI, LLaMA от Meta AI, PaLM и Gemini от Google и многие другие.

Принятый парламентом Калифорнии законопроект — один из многих, находящихся на рассмотрении сенаторов. Его внес представитель демократической партии Скотт Винера. Проект закона поддержали два самых цитируемых исследователя «искусственного интеллекта» в истории: «крестные отцы ИИ» Джеффри Хинтон и Йошуа Бенгио.

«Сорок лет назад, когда я обучал первую версию алгоритмов ИИ, лежащих в основе таких инструментов, как ChatGPT, никто — включая меня самого — не мог предположить, насколько далеко продвинется ИИ. Мощные системы искусственного интеллекта открывают невероятные перспективы, но риски также очень реальны, и к ним следует относиться очень серьезно», — сказал о законопроекте профессор Хинтон.

Против законопроекта Винера выступали компании Meta и Google. Они считают, что он препятствует инновациям, пишет Politico. Менее крупные участники рынка также указывают на то, что в конечном итоге регулирование приведет к тому, что никто не сможет конкурировать с OpenAI. «Независимо от того, какие были намерения [у законодателей], в конечном итоге всё сведется к тому, что другим компаниям станет сложнее конкурировать с OpenAI», — заявил Брайан Чау, исполнительный директор «Альянса за будущее» — группы активистов, которые пытаются не допустить чрезмерного регулирования технологий со стороны американских законотворцев.

Floating point operations per second (FLOPS, flops or flop/s) — единица, показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система.

Модель разработки программного обеспечения, в рамках которой любой человек может изменять технологию и обмениваться ею, поскольку ее структура находится в открытом доступе.

Подпишитесь на нашу рассылку

К сожалению, браузер, которым вы пользуйтесь, устарел и не позволяет корректно отображать сайт. Пожалуйста, установите любой из современных браузеров, например:

Google Chrome Firefox Safari