«Это очень удобно!» «Определенно рекомендую!»
Совершая онлайновые покупки, люди часто обращаются к отзывам о товарах или полагаются на рекомендации в соцсетях. Однако в интернете стало появляться все больше таких комментариев, сгенерированных приложениями искусственного интеллекта. Они заставляют покупателей сомневаться в подлинности впечатлений о товарах. Японский веб-сайт Sakura Checker оценивает отзывы в крупных интернет-магазинах и тщательно анализирует сомнительные комментарии о товарах.
Первоначально задача сайта заключалась в том, чтобы определить, кем написаны отзывы – реальными пользователями или по заказу компаний-продавцов.
Но теперь оператор сайта, работающий под ником «Ю», занимается проверкой отзывов, сгенерированных ИИ.
Ю говорит, что в апреле он начал замечать новый тип отзывов о товарах. На первый взгляд, эти отзывы были написаны на естественном японском языке, но Ю обнаружил в них невиданные прежде подозрительные закономерности.
Новые закономерности По словам Ю, подозрительные отзывы отличаются рядом общих закономерностей.
Одна из них – многократный повтор фразы «этот товар».
Ю говорит: «Повтор слов стал для меня тревожным сигналом, поскольку в реальных отзывах такого обычно не бывает».
Вторая особенность – частое использование союзов, таких как «и» или «также», в начале предложений.
Третья особенность заключается в подробном описании функций и применения товара.
Ю говорит: «Обычно отзывы сосредоточены на какой-то одной характеристике товара и на том, хорош ли он в целом. Подозрительные отзывы подробно описывают товар и напоминают эссе. Это заставило меня заподозрить, что их создает искусственный интеллект».
Ю пожелал остаться неизвестным.
Сравнение с предложениями, сгенерированными ИИ Чтобы проверить свои подозрения, Ю создал отзывы с помощью чат-бота ChatGPT. Он попросил приложение написать отзыв о приспособлении для охлаждения шеи.
ChatGPT тут же выдал следующие предложения: «Этот товар – спасение летом!» и «Я купил его недавно и был поражен эффективностью».
Предложения обладали теми же особенностями, что и отзывы, которые Ю нашел подозрительными. В них повторялись союзы и такие фразы, как «этот товар». Кроме того, отзывы были разделены на удобные для чтения абзацы.
Ю также заметил, что если ChatGPT были даны описания товаров производителей, чат-бот генерировал отзывы пользователей с упоминанием тех же деталей.
Один подозрительный отзыв о дождевом чехле для мотоцикла содержал такие же, что и описание товара у производителя. В нем говорилось, что чехол изготовлен из материала «во столько-то денье», а его «водостойкость – выше стольких-то паскалей».
Ю продолжил давать ChatGPT описания товаров, предложенные производителями, и просил написать отзывы о них. Результаты были почти идентичны подозрительным отзывам – в них использовался практически тот же порядок слов.
Ю также обнаружил, что текст, сгенерированный ИИ, используется много раз.
Он заметил, что несколько страниц отзывов о портативных кондиционерах разных производителей содержали один и тот же текст и были размещены с одного и того же аккаунта.
Он предположил, что кто-то использовал искусственный интеллект для написания фальшивых отзывов, а потом скопировал тот же текст в отзывы о других товарах.
Чтобы выявить тенденцию, Ю дал ИИ указание создать более тысячи отзывов, изменив при этом наименования товаров. Затем он сравнил и проанализировал закономерности.
Ю также использовал инструмент для определения степени схожести предложений и обнаружил, что в ряде случаев почти 80% предложений, использованных в подозрительных отзывах, были идентичны или похожи на комментарии, генерированные им с помощью искусственного интеллекта.
В конце концов Ю создал систему для определения вероятности того, что предложения написаны искусственным интеллектом, основываясь на их особенностях.
По словам Ю, с апреля его система пометила сотни отзывов, которые могли быть созданы искусственным интеллектом.
Он говорит, что будет продолжать искать закономерности, но отмечает, что по мере совершенствования ИИ выявлять их может становиться все труднее.
Ю говорит: «Сейчас я могу находить закономерности, но меня беспокоит, что по мере своего развития ИИ сможет генерировать более естественные отзывы. Цель отзыва – поделиться впечатлением о товаре, которым вы действительно пользовались. Но ИИ может подделывать такие впечатления, затрудняя определение подлинности отзывов, и это очень тревожно».
Позиция компании Amazon по использованию ИИ Как сайты электронной коммерции справляются с этой ситуацией?
Проверка правил составления отзывов на сайте Amazon не выявила никаких упоминаний искусственного интеллекта. NHK обратилась в японский филиал компании, и ее представитель ответил, что есть немногие случаи, когда покупатели пишут отзывы о товарах с помощью искусственного интеллекта.
Amazon Japan говорит, что некоторые отзывы на ее сайте были сгенерированы искусственным интеллектом. Компания отметила, что использование ИИ для написания отзывов не запрещено, если они отражают реальные впечатления покупателя о товаре и не нарушают установленных ею правил.
Однако компания заявляет, что жестко реагирует на отзывы, нарушающим ее правила, например, если их авторы выдают себя за другого человека или используют чужие фразы.
Кто написал эти отзывы? NHK разыскала людей, которые, как предполагается, использовали аккаунт, разместивший подозрительные отзывы, и попыталась взять у них интервью.
Некоторые ответили и опровергли использование искусственного интеллекта, не вдаваясь в подробности, а другие просто проигнорировали нашу просьбу.
Можно ли с точностью распознать отзывы, написанные ИИ? Мы спросили нескольких экспертов, есть ли надежные способы определить, написан отзыв искусственным интеллектом или нет. Все они сказали, что это трудно сделать с уверенностью для коротких предложений на японском языке, подобных тем, которые используются в отзывах.
Компания OpenAI, оператор ChatGPT, на своем веб-сайте предлагает бесплатный инструмент для определения того, написаны ли предложения искусственным интеллектом. Однако она отмечает, что для точной оценки текста в нем должно быть не менее тысячи знаков, и что этот инструмент был разработан в основном для английского языка. По словам OpenAI, результаты для других языков могут быть ненадежными. Инструмент OpenAI, выявляющий созданные ИИ тексты, был разработан в основном для английского языка.
Профессор Этидзэн Исао из Государственного института информатики говорит: «Использование ИИ продолжит расширяться не только для написания текстов, но и для изображений и аудио. Если каждому будут доступны инструменты ИИ, некоторые будут использовать их в неблаговидных целях».
Эксперт отмечает: «Станет трудно судить о достоверности информации, просматривая ее в одиночку. В будущем нам придется использовать для проверки другие источники».
|