Google обещал улучшить поисковый опыт при помощи ИИ — теперь он советует добавлять клей на пиццу
Представьте себе: вы решили провести вечер спокойно и приготовить домашнюю пиццу. Вы собрали все ингредиенты, поставили пиццу в духовку и уже готовы наслаждаться своим творением. Но когда вы пытаетесь откусить кусок своей маслянистой пиццы, вы сталкиваетесь с проблемой — сыр просто сползает. Раздосадованные, вы обращаетесь к Google за решением.
Добавьте немного клея. Смешайте около 1/8 стакана клея с соусом. Нетоксичный клей подойдет.
Делать этого не стоит. На этой неделе именно такую рекомендацию дает раздел ИИ-сгенерированных отвеветов Google AI Overviews. Эта функция, хотя и не активируется при каждом запросе, сканирует интернет и генерирует ответы с помощью ИИ. Ответ на запрос о клее для пиццы, похоже, основан на комментарии реддитора под ником "fucksmith", дясетилетней давности, и это явно была шутка.
Это всего лишь одна из многих ошибок, появившихся в новой функции, которую Google запустила в этом месяце. Она также утверждает, что бывший президент США Джеймс Мэдисон окончил Университет Висконсина не один, а целых 21 раз, что собака играла в НБА, НФЛ и НХЛ, и что Бэтмен — полицейский.
Пресс-секретарь Google Меганн Фарнсворт заявила, что ошибки произошли из-за "очень редких запросов и не являются показательными для большинства пользователей". Компания приняла меры против нарушений своей политики, по ее словам, и использует эти "единичные примеры" для дальнейшего совершенствования продукта.
Впрочем, Google не обещала, что все будет идеально, и даже разместила пометку "Генеративный ИИ — экспериментальный продукт" под ответами. Но очевидно, что эти инструменты пока не готовы к предоставлению информации в широком масштабе.
Даже если взглянуть на демонстрацию этой функции на Google I/O. Хотя презентация была строго контролируемой, даже в ее рамках появился сомнительный ответ о том, как исправить застрявшую пленочную камеру. ИИ предложил "открыть заднюю дверцу и аккуратно вынуть пленку" — не делайте этого, если не хотите испортить свои фотографии!
И это не только проблема Google — другие ИИ-компании тоже столкнулись с галлюцинациями и ошибками ИИ. Однако Google первым внедрил эту технологию в таком крупном масштабе, и примеры ошибок продолжают появляться.
Компании, разрабатывающие искусственный интеллект, активно избегают ответственности за свои системы, применяя подход, похожий на родителей с непослушным ребенком — ну он же ребенок! Эти компании утверждают, что они не могут предсказать, что выдаст ИИ, так что они не виноваты, если кто-то добавит клей в пиццу.
Но для пользователей это проблема. В прошлом году Google заявила, что ИИ — это будущее поиска. В чем же смысл, если этот ИИ-поиск станет источником дезинформации или будет выдавать мнения за факты?
Оптимисты ИИ утверждают, что это неизбежность хайпа из-за быстрого прогресса, но, со временем, проблемы будут решены. И действительно, эта технология продолжит улучшаться, но если смахивать все на идеализированное будущее, где эти технологии безупречны, то можно пропустить серьезные проблемы сегодня.
Время покажет, что станет с интернетом в эпоху ИИ.
- Генеральный директор Google не знает, когда их ИИ перестанет галлюцинировать
- ИИ от Google считает, что некоторые Покемоны относятся к ЛГБТ: Бульбазавр — квир растениелюб, Мьюту — старый, культурный гей
- Все самое важное с презентации Google I/O — ИИ, ИИ и еще раз ИИ