Генеральный директор Google не знает, когда их ИИ перестанет галлюцинировать
Если вы интересуетесь искусственным интеллектом, то знаете, что он склонен к "галлюцинациям", то есть к созданию "фактов", которые не являются правдивыми. Новая функция Google AI Overviews прославилась именно этим. С момента запуска, пользователи обнаружили множество абсурдных ответов на самые разные вопрос. Это не первый случай, когда ИИ от Google (у других тоже наблюдается проблема) делает подобные ошибки, поэтому пользователи задаются вопросом, когда компания решит эту проблему.
Похоже, что не скоро. Генеральный директор компании Сундар Пичаи сказал в интервью The Verge, что "галлюцинации остаются нерешённой проблемой" и в некотором смысле даже "неотъемлемой особенностью" ИИ.
Это то, что делает эти модели очень креативными. Это причина, по которой ИИ может мгновенно написать стихотворение о Томасе Джефферсоне в стиле Нилая. Он способен на подобное. Он невероятно креативен. Но большие языковые модели (LLM) не всегда представляют собой лучший подход для поиска фактов, и поэтому и существует поисковик... Есть моменты, когда ИИ ошибается, но я не думаю, что это повод недооценивать его полезность.
У Пичаи нет конкретного ответа, но он утверждает, что команда продвигается вперёд в решении проблемы.
Мы все стараемся улучшить ИИ, но проблема не решена. Есть ли интересные идеи и подходы, над которыми мы работаем? Да, но время покажет.
Так что при использовании ИИ-ответов Google, стоит трижды проверить, насколько они верные.
- ИИ от Google считает, что некоторые Покемоны относятся к ЛГБТ: Бульбазавр — квир растениелюб, Мьюту — старый, культурный гей
- Google обещал улучшить поисковый опыт при помощи ИИ — теперь он советует добавлять клей на пиццу
- Все самое важное с презентации Google I/O — ИИ, ИИ и еще раз ИИ