Британские ученые разработали способ, позволяющий точно определить, когда чат-боты на основе искусственного интеллекта обманывают пользователей.
Хотя ChatGPT и другие похожие боты не способны намеренно вводить в заблуждение, они могут предоставлять неточные данные, если не владеют всей информацией.
Исследование было опубликовано в журнале Nature. Ученые измеряли семантическую энтропию. Они задавали искусственному интеллекту один и тот же вопрос несколько раз и подсчитывали число семантически эквивалентных ответов. Если большинство ответов совпадали, скорее всего, бот был не уверен в формулировке, но знал правильный ответ. В противном же случае, нейросеть могла говорить неправду.
|