Исследователи предлагают добавлять к ИИ "выключатели безопасности", чтобы избежать сценария "Скайнет"
По мере того, как ИИ продолжает наращивать доминирование практически во всех сферах, возникает вопрос: как нам контролировать эту новою технологию? Согласно статье из Кембриджского университета, ответ может заключаться во множестве методов, включая встроенные "выключатели безопасности" и удаленную блокировку аппаратного обеспечения, на котором работает ИИ.
В статье представлены мнения нескольких академических учреждений, включая Центр Леверхьюма Кембриджского университета, Институт интернета Оксфорда и Университет Джорджтауна, а также разработчиков ChatGPT из OpenAI. Среди предложений по ужесточению государственных норм регулирования продажи аппаратного обеспечения для ИИ и других потенциальных методов регулирования есть идея о том, что модифицированные ИИ-чипы могли бы "удаленно подтверждать регулятору, что они работают законно, и прекращать работу в противном случае".
Предлагается использовать сопроцессоры на борту в качестве защиты аппаратного обеспечения. Они будут проверять цифровой сертификат, который потребуется периодически обновлять, и деактивировать аппаратное обеспечение или снижать его производительность, если лицензия окажется недействительной или просроченной.
Это фактически сделает аппаратное обеспечение, используемое для вычислений ИИ, отчасти подотчетным в плане законности его использования, а также предоставит способ "убить" или подавить процесс в случае отсутствия определенных прав.
В статье также предлагается механизм, при котором перед выполнением определенных задач по обучению ИИ необходимо будет получить одобрение нескольких внешних регуляторов, отмечая, что "ядерное оружие использует аналогичные механизмы, называемые разрешающими ссылками".
Хотя многие из предложений уже имеют реальные аналоги, которые, похоже, эффективно работают, например жесткие торговые санкции США, введенные против таких стран, как Китай, для ограничения экспорта ИИ-чипов, идея о том, что на каком-то уровне ИИ должен регулироваться и ограничиваться дистанционными системами на случай непредвиденных событий, кажется благоразумной.
На данный момент развитие ИИ, похоже, ускоряется, а текущие модели ИИ уже находят применение во множестве областей, которые должны заставить нас задуматься. От инфраструктурных проектов на электростанциях до военных приложений, ИИ находит место в каждой крупной отрасли, а в последние годы регулирование стало жарко обсуждаемой темой, и многие ведущие деятели технологической отрасли и правительственных учреждений неоднократно призывали к большему обсуждению и разработке лучших методов реагирования на возникающие проблемы с технологией.
На встрече комиссии Палаты лордов по коммуникациям и цифровым технологиям в конце прошлого года у руководителей крупных технологических компаний прямо спросили, можно ли отозвать небезопасную модель ИИ, на что они просто избежали ответа, что говорит о том, что в настоящее время, по-видимому, ответ "нет".
Встроенный "выключатель безопасности" или система удаленной блокировки, согласованная и регулируемая несколькими органами, была бы способом смягчения этих потенциальных рисков, и должна была бы успокоить тех, кто обеспокоен волной внедрения ИИ, захлестнувшей мир.
- Губернатор Калифорнии заблокировал важный законопроект по безопасности ИИ
- Ученый предупредил об особой опасности со стороны новой ИИ-модели OpenAI o1
- В каждом федеральном агентстве США теперь должен быть главный директор по искусственному интеллекту