Сенаторы поручили Минцифры, Минздраву и Минэкономики разработать меры, исключающие дискриминацию человека при использовании искусственного интеллекта, и утвердить дорожную карту по этому направлению до конца 2022 года.
Пока что в Совфеде не уточнили, что именно подразумевается под дискриминацией граждан со стороны ИИ. Но очевидно, что пространства для фантазии тут предостаточно. Камеры, фиксирующие нарушения водителей в случаях, когда штрафы получали владельцы легковых машин, которые перемещались на эвакуаторах, — это дискриминация? Почему нет? Скоринговые системы банков — алгоритм решает, кому дать кредит, а кому нет, — дискриминация? А громкий кейс с компанией Xsolla, из которой на основании анализа алгоритмами в прошлом году уволили 150 человек?
Примеров много. Самый простой и распространенный, с которыми почти каждый сталкивается ежедневно, — соцсети с их таргетированной рекламой, напоминает президент компаний InfoWatch Наталья Касперская:
Наталья Касперская президент группы компаний InfoWatch «Цифровые платформы используют алгоритмы искусственного интеллекта, обучают их на больших данных пользователей и навязывают рекламу или на основании этих знаний проводят политическую пропаганду. То есть это типичная манипуляция».
А ведь реклама — это самое безобидное в этом ключе. Человеку можно навязать не только желание что-то купить, но и повлиять на его убеждения. Основатель и президент Superjob Алексей Захаров относится к этой проблеме спокойнее. В HR алгоритмы уже могут оценивать, насколько резюме кандидатов соответствуют таким признакам, как средняя продолжительность работы на одном месте на всем протяжении карьеры, разница между требуемым опытом вакансии и опытом из резюме, попадание желаемой зарплаты резюме в зарплатную вилку вакансии и многое другое. И все, что можно будет доверить цифре, доверят, уверен Захаров:
Алексей Захаров основатель и президент Superjob «То, что можно легко алгоритмизировать, то поддается современному искусственному интеллекту. Соответственно, бухгалтерия уже практически исчезла и исчезнет в ближайшее время совсем. Вождение автомобиля — это тоже алгоритм. В ближайшее время людей, которые не поддаются алгоритмам, перестанут пускать за рулем на улицы, а машины правила не нарушают и будут себе спокойно ездить. Диагнозы по инсультам: доктор наук ошибается в 50% случаев, а алгоритм уже лет десять ошибается в 1% случаев. Соответственно, какие-то такие истории тоже отдаются на откуп алгоритмам».
Надо сказать, что Алексей Захаров вообще не считает уместным использование самого термина ИИ. Его позиция в том, что алгоритм — это помощник. Он не принимает решений сам. Хотя многие готовы с этим поспорить — взять тот же скоринг.
Или что сказать человеку, которого не взяли на работу, потому что нейросети чем-то не угодила его страничка в Facebook?
А по поводу беспилотных машин — так они тоже ошибаются, и этический вопрос, выпускать ли их на дороги, все еще не решен. А кто знает, куда дотянутся цифровые щупальца алгоритмов в ближайшем будущем. Если сегодня машина определяет, дать кредит человеку или нет, почему завтра ей не проверить результаты ЕГЭ. И смотреть на это можно по-разному — с одной стороны, алгоритмизировать этот процесс ничего не стоит. С другой — это же реально судьба человека. И разговор с экзаменатором по своей ценности не стоит на одной полке с механической оценкой того, поставил ли школьник «плюс» перед знаком бесконечность. Человеку можно объяснить, что тут априори имелось в виду, что бесконечность положительная. Машине — нет: нет знака — есть ошибка.
Еще один важный аспект — это то, что алгоритмы пишут люди. И от людей зависит то, как будет работать ИИ. Но и здесь есть обратная сторона. Если ошибку допустил ИИ — обратной связи с ним нет практически никакой, и ты ничего не докажешь. Это очень хорошо известно тем, кто хоть раз пытался исправить какую-то неточность в своих данных на «Госуслугах», неделями переписываясь или разговаривая с электронными помощниками, или пробовал оспорить несправедливо выписанный штраф с камеры.
Текст: Иван Медведев
|