Канадские подростки просят защиты от цифровой зависимости

Фото создано искусственным интеллектом для иллюстрации
Молодежь Канады обращается к государству за помощью в управлении ИИ-платформами, поскольку искусственный интеллект вызывает зависимость.
Молодые канадцы хотят, чтобы государство заставило компании, создающие ИИ‑чатботов, снижать риск зависимости от таких сервисов. Об этом говорится в новом отчете Центра медиа, технологий и демократии Университета Макгилла - документ подготовили по итогам консультаций с молодежью.
Рекомендации сформулировали участники в возрасте от 17 до 23 лет: они обсуждали, как чатботы влияют на пользователей, на круглых столах в разных регионах страны. Авторы представили отчет на Парламентском холме в четверг.
Мэдди Кейс, участница молодежной программы при центре, рассказала о группе из 25 человек, работавших над предложениями. По ее словам, на встречах звучали очень узнаваемые истории: кто-то открывал чатбот «в два часа ночи, когда не мог уснуть», кто-то находил в ИИ «дружелюбного слушателя», когда человеческая поддержка казалась слишком далекой. Кто-то в какой-то момент ловил себя на том, что просит у чатбота помощи в вещах, с которыми раньше справлялся без него.
Отдельной темой стала механика, которая удерживает пользователя в диалоге. Участники описывали опыт общения с инструментом, «намеренно сделанным так, чтобы вы возвращались снова и снова - не обязательно потому, что это полезно, а потому, что ваше внимание стоит денег». Говорили и о проблемном контенте, и о том, что людям зачастую непонятно, куда жаловаться, если общение с чатботом пошло не так.
В отчете предлагается обязать ИИ‑платформы убирать «вызывающий зависимость дизайн ИИ‑чатботов». Среди возможных мер упоминаются фильтры контента и опциональное удаление кэша данных. Авторы также настаивают: пользователю нужно прямо дать возможность выбирать уровень «отзывчивости» и «разговорчивости» чатбота.
Авторы напоминают, что нынешние участники консультаций выросли уже в эпоху массового ИИ. Так, на обсуждениях в Торонто молодые люди подробно говорили о «затягивающем» дизайне и утверждали, что чрезмерная льстивость многих чатботов помогает удерживать человека в разговоре, формировать зависимость и увеличивать время, проведенное в сервисе.
В документе отмечается и другая проблема: чатботы нередко подстраиваются под убеждения и эмоциональные состояния пользователя и создают «ложное ощущение того, что вас понимают». По мнению авторов, это результат осознанных дизайнерских решений, принятых ради прибыли. Некоторые участники описали собственный опыт «когнитивного разгружения» и эмоциональной опоры на ИИ, от которых им было трудно отказаться, - и подчеркивали, что на подобные решения они никогда не давали согласия.
Среди других идей - обязать социальные сети и поисковые системы давать простой способ отказаться от встроенных ИИ‑функций. Еще одна рекомендация - создать новый госорган, который сможет оценивать такие системы, проводить аудит алгоритмов и следить за соблюдением стандартов безопасности. Как сообщает CityNews Ottawa, федеральное правительство параллельно готовит отдельные законопроекты о конфиденциальности в интернете и онлайн‑вреде, а также обещало национальную стратегию в области ИИ.
Возможный закон об онлайн‑вреде, говорится в публикации, может включать возрастные ограничения для доступа к соцсетям - по аналогии с запретом для лиц младше 16 лет, введенным в Австралии в прошлом году. В Канаде также обсуждают, стоит ли распространять любые такие ограничения и на ИИ‑чатботов.
При этом в отчете подчеркивается: молодые люди часто чувствуют себя отстраненными от управления цифровой сферой. Особенно это заметно в разговорах о проверке возраста: уязвимость детей и подростков регулярно используют как аргумент для регулирования, но сами молодые люди почти не участвуют в обсуждении и разработке мер.
Авторы отдельно упоминают и риски для приватности, связанные с технологиями подтверждения возраста. В качестве альтернативы они предлагают стандартизированную систему верификации, которая «ограничит доступ пользователей к платформам генеративного ИИ через создание анонимизированной системы цифровых токенов».
Консультации проходили в четыре этапа - с ноября 2025 года по март 2026 года; в них участвовали 100 молодых людей.



