Рост возможностей ИИ заставил Канаду принять срочные меры

Фото создано искусственным интеллектом для иллюстрации
В Канаде предлагают ввести меры для предотвращения конкуренции со стороны искусственного интеллекта, стремительное развитие которого вызывает опасения в обществе.
Федеральному правительству Канады стоит обязать создателей и распространителей контента четко помечать материалы, сделанные с помощью искусственного интеллекта. К такому выводу пришел комитет Палаты общин в новом докладе.
Депутаты предлагают ввести единые, стандартизированные обозначения для ИИ-контента - заметные и понятные широкой аудитории. По задумке авторов, правило должно работать во всех релевантных сферах: от цифровых платформ до телевидения и других вещателей.
В отчете подчеркивается, что обязательная маркировка «поможет обеспечить прозрачность, поддержать доверие общества и сохранить целостность информационной и культурной экосистемы Канады». Комитет призвал выстроить «рамочную систему» для систематической и легко распознаваемой маркировки контента, созданного при содействии ИИ. В качестве инструментов предлагаются метаданные, цифровые водяные знаки и другие надежные технические решения.
Как сообщает The Canadian Press, идея маркировки вошла в список из 13 рекомендаций, подготовленных по итогам изучения того, как искусственный интеллект влияет на культурный сектор.
Судя по показаниям, которые комитет собирал в ходе работы, в отрасли накопилась «глубокая обеспокоенность»: ИИ, по мнению многих участников обсуждения, может подорвать долгосрочную устойчивость творческих индустрий. В докладе перечисляются ключевые риски - от использования защищенных авторским правом произведений для обучения моделей без разрешения и выплат до распространения синтетического контента на платформах. Среди других проблем - конкуренция ИИ с творческими профессионалами, «исчезновение рабочих мест и даже целых профессиональных категорий», а также «размывание культурного суверенитета и культурного разнообразия под доминированием технологических гигантов».
Комитет также считает, что правительству нужно добиваться применения Закона об авторском праве к ИИ-контенту и требовать от разработчиков большей прозрачности в том, как именно при обучении моделей используются защищенные произведения. Это, как отмечается в документе, должно сделать возможными «надлежащее разрешение и лицензирование».
Отдельным пунктом парламентарии предлагают закрепить принцип opt-in: использование защищенных авторским правом работ для обучения ИИ должно происходить только с предварительного согласия правообладателей. В отчете подчеркивается, что произведения создателей не должны применяться для текстового и дата-майнинга или разработки моделей без их явного разрешения.



