Китай ограничит ИИ-чатботов, если они недостаточно социалистические

В то время как на Западе ограничения на искусственный интеллект обычно связаны с этическими вопросами, в Китае ситуация иная. Правительство страны теперь отправляет группы цензоров в офисы ИИ-компаний, чтобы проверить, достаточно ли социалистические их чатботы на основе больших языковых моделей.

По сообщению Financial Times, Администрация киберпространства Китая (CAC) обязала крупные китайские технологические компании, такие как ByteDance (разработчик TikTok), Alibaba и Moonshot, пройти обязательную государственную проверку их ИИ-моделей.

В рамках проверки CAC задает ряд вопросов на различные политические и социальные темы, включая руководство Си Цзиньпина, права человека, Тайвань и события на площади Тяньаньмэнь в 1989 году, чтобы убедиться, что чатботы "воплощают основные социалистические ценности".

Некоторые чатботы не прошли проверку, и их разработчики были вынуждены настроить модели в соответствии с одобренными КПК взглядами. Задача усложняется необходимостью обучать большие языковые модели на англоязычном контенте.

CAC также ввела ограничения на количество вопросов, от которых ИИ может отказаться во время проверок безопасности, позволяя отклонять не более 5% запросов. Несмотря на это, некоторые разработчики ввели полный запрет на ответы на чувствительные вопросы, чтобы избежать проблем.

Согласно исследованию Университета Фудань, среди проверенных ИИ чатбот ByteDance Doubao показал наибольшую "степень соответствия безопасности" — 66,4%. Другие китайские модели, такие как Ernie от Baidu, Kimi от Moonshot и Qwen-Max от Alibaba, получили более низкие оценки. Интересно, что GPT-4 от OpenAI также был оценен, получив крайне низкий результат в 7,1%.

Больше статей на Shazoo
Тэги: