Уже общим местом стало утверждение о том, что искусственный интеллект, способный открыть невиданные возможности для развития человечества, таит в себе множество потенциальных угроз. Французский эксперт в области этики и политики Марк-Антуан Дилак, например, не исключает, что ИИ можно использовать как инструмент дискриминации: с целью профилирования по расовому признаку, определению сексуальной ориентации и прогнозированию поведения людей. По его словам, новые технологии требуют ответственного подхода – в том числе на законодательном уровне.
Марк-Антуан Дилак занимается вопросами этики и политической философии в Монреальском университете, где является одним из директоров отдела этики и политики Исследовательского центра по проблемам этики (CRÉ). О некоторых этических проблемах использования искусственного интеллекта (ИИ) его расспросил Режис Мейран из ЮНЕСКО. Интервью опубликовано в «Курьере ЮНЕСКО».
РМ: С какими проблемами связано использование программного обеспечения для анализа поведения людей по видеозаписям?
М-А Д: ИИ позволяет более эффективно использовать системы видеонаблюдения в общественных местах в целях профилактики. Видеозаписи непрерывно анализируются специальными программами, которые фиксируют агрессивные действия и могут быстро поднять тревогу. Подобная система сейчас тестируется в переходах станции Шатле парижского метрополитена. Если такой подход к видеонаблюдению будет одобрен, единственной проблемой использования ИИ остается риск ошибки. Однако он не слишком высок, поскольку решение относительно того, требует ли ситуация вмешательства, будут принимать люди.
Достаточно небольшой помехи при передаче изображения, и вместо лица ИИ может увидеть тостер
Тем не менее, вероятность ошибки при распознавании лиц высока. Достаточно небольшой помехи при передаче изображения, и вместо лица ИИ может увидеть тостер! Особую тревогу может вызвать ощущение, что вы постоянно находитесь под наблюдением, а также рост числа ошибок.
Еще одним поводом для беспокойства является то, что использование интеллектуальных систем и методов расового и социального профилирования может вести к злоупотреблениям.
РМ: О каких злоупотреблениях идет речь?
М-А Д: Я имею в виду применяемые в некоторых странах программы распознавания лиц для выявления «террористического» или «криминального» поведения. То есть по лицу человека определяется его внутренняя склонность к преступлению! Обеспокоенные этим возрождением физиогномики, Михаль Косински и Илунь Ван из Стэнфордского университета в США сочли необходимым продемонстрировать опасность этой, как казалось, оставшейся в прошлом псевдонаучной теории, состоявшей в изучении характера человека по особенностям и выражению его лица.
Желая привлечь внимание к опасности вторжения в личную жизнь, они в 2017 году создали программу «гейдар», определяющую гомосексуальность людей по их фотографиям! По заявлению авторов, погрешность программы составляет всего 20%. Применение этой технологии не только стигматизировало бы человека, но и нарушало бы его право не раскрывать свою сексуальную ориентацию.
Научное исследование, не опирающееся на философию и лишенное социологических или юридических ориентиров, чревато этическими проблемами. Те немногие примеры, которые я привел, говорят о необходимости заключить исследования в области ИИ в рамки этики.
РМ: А как насчет эксцессов евгенического характера?
М-А Д: На мой взгляд, ИИ априори не является фактором поощрения евгеники. Некоторые утверждают, что однажды человека можно будет усовершенствовать за счет использования ИИ – например, путем вживления чипов, увеличивающих память или улучшающих узнавание лиц и т. п. И если «умная» робототехника может дать нам медицинские решения проблем инвалидности (скажем, возвращение подвижности с помощью сложных протезов), то трансгуманистическая гипотеза о создании постчеловека лежит в области научной фантастики.
|