Эксперты и разработчики ИИ призывают на шесть месяцев приостановить разработку продвинутых моделей
В открытом письме, подписанном лидерами технологической отрасли и известными исследователями ИИ, был озвучен призыв к "немедленной паузе" в работе компаний и организаций, занимающихся ИИ.
Стив Возняк и Илон Маск согласны с тем, что риски требуют минимального шестимесячного перерыва в разработке технологий, превосходящих GPT-4 по уровню. Это необходимо, чтобы в полной мере осознать возможности существующих систем ИИ, а также дать людям возможность адаптироваться и обеспечить равные возможности для всех. В письме подчеркивается, что "забота и предусмотрительность" необходимы для обеспечения безопасности систем ИИ.
В письме отдельно выделяют GPT-4 — пока что самую продвинутую модель OpenAI, способную выполнять широкий спектр поставленных задач, особенно с использованием плагинов. Тем временем другие компании стремятся представить свои альтернативы. Например, Microsoft недавно подтвердила, что обновленный поисковик Bing работает на основе модели GPT-4, а Google недавно представила Bard — свою собственную генеративную систему ИИ на основе LaMDA. В то время как ИИ вызывает рациональное беспокойство, сейчас сама гонка среди технологических компаний становится поводом для тревоги.
В письме сказано, что в последние месяцы компании и организации находятся в состоянии неконтролируемой гонки по разработке и внедрению все более мощных ИИ, которые никто – даже их создатели – не способны осознать, предсказать или надежно контролировать.
В числе подписавших письмо, помимо Маска и Возняка присутствует множество мировых лидеров в области ИИ, таких как президент Центра искусственного интеллекта и цифровой политики Марк Ротенберг, физик из MIT и президент Института Будущей Жизни Макс Тегмарк и автор Юваль Ноа Харари. Харари также совместно написал статью в New York Times на прошлой неделе, предупреждая об опасностях ИИ.
В 2022 году в рамках опроса 700 исследователей в области ИИ, около половины респондентов отметили, что существует 10% вероятность "крайне плохого исхода", вплоть до вымирания человечества.
- xAI привлекла $6 миллиардов в новом раунде финансирования
- OpenAI уберет из ChatGPT голос, напоминающий Скарлетт Йоханссон
- Команда OpenAI, ответственная за защиту человечества, больше не существует