Искусственный интеллект (ИИ) помогает в борьбе с пандемией COVID-19 и может быть с успехом применен в других сферах жизни. При этом высокие технологии могут привести и к нежелательным последствиям. В связи с этим в ООН призывают разработать четкие международные правила, которые позволили бы предотвратить негативные тенденции.
Хотя термин «искусственный интеллект» вызывает в воображении образы машин, которые могут думать и действовать, как люди, реальность более прозаична и, как правило, ИИ используется для описания программного обеспечения, которое может в определенной степени «учиться», решать проблемы и выявлять закономерности. Это особенно полезно в тех случаях, когда необходимо отсортировать и проанализировать огромные объемы данных.
Еще одно заблуждение заключается в том, что в силу особенностей ИИ, связанных с самообучением, эта технология гарантирует получение более эффективных, надежных и более высоких результатов, чем то, к чему люди могут прийти самостоятельно. Однако недавние примеры ошибок, когда результаты экзаменов были неверно занижены, невиновные люди были отправлены в тюрьму, а личные данные украдены, служат напоминанием о том, что именно люди со всеми их несовершенствами стоят за успехами или неудачами инструментов ИИ.
В преддверии презентации руководства ООН по пониманию этических аспектов ИИ, эксперты ЮНЕСКО представляют пять фактов, которые необходимо знать об использовании ИИ, его последствиях и способах улучшения данной технологии.
Последствия неправильного использования могут быть разрушительными В январе афроамериканец в Мичигане, США, был арестован за кражу в магазине, о которой он ничего не знал. Он был взят под стражу после того, как на него надели наручники возле дома на глазах у семьи.
Считается, что это первый неправомерный арест такого рода: задействованные полицейские доверяли технологии распознавания лиц на основе ИИ, чтобы поймать преступника, но инструмент не научился распознавать различия между лицами чернокожих людей, потому что изображения, используемые для его обучения, в основном содержали лица белых людей.
К счастью, быстро стало ясно, что задержанный не похож на подозреваемого, замеченного на камерах безопасности магазина, и он был освобожден, хотя провел несколько часов в тюрьме.
А в июле в Великобритании поднялся шум, когда мечты многих студентов, надеявшихся поступить в университет по своему выбору, были разбиты, когда для анализа их оценок использовалась компьютерная программа (традиционные экзамены были отменены из-за пандемии COVID-19).
Для определения того, какие баллы учащиеся могли бы получить, если бы они сдавали экзамены, программа учитывала их существующие оценки, а также послужной список их школ за определенный период времени. В конечном итоге это обернулось несправедливостью для одаренных учащихся из районов проживания групп меньшинств и с низким уровнем доходов, которые с большей вероятностью пойдут в школы с более низким средним уровнем образования, чем школы, в которых обучаются более обеспеченные учащиеся.
Эти примеры показывают, что для эффективного применения искусственного интеллекта подготовленные специалисты должны работать с данными высокого качества. К сожалению, большая часть данных, используемых для обучения ИИ, в настоящее время поступает от потребителей по всему миру, часто без их прямого согласия: более бедные страны зачастую не имеют возможности обеспечить защиту личных данных или защитить свои общества от разрушительных кибератак и дезинформации, участившихся с начала пандемии COVID-19.
Ненависть, раздоры и ложь полезны для бизнеса Многие компании, работающие в социальных сетях, подвергаются критике за то, что они используют алгоритмы, основанные на искусственном интеллекте, для «микротаргетинга» пользователей и рассылают им индивидуальный контент, усиливающий их предубеждения. Чем более провокационным является контент, тем больше вероятность того, что он будет использован и распространен.
Причина, по которой эти компании рады «проталкивать» социально разобщающий и поляризующий контент, заключается в том, что это увеличивает вероятность того, что они будут дольше оставаться на платформе, что радует их рекламодателей и увеличивает их прибыль.
Это привело к популярности экстремистских, ненавистнических сообщений, распространяемых группами, которые иначе были бы малоизвестными маргинальными структурами. Во время пандемии COVID-19 это также спровоцировало распространение опасной дезинформации о вирусе, что чревато заражением большего числа людей.
Глобальное неравенство находит отражение в Интернете Имеются веские основания полагать, что ИИ играет определенную роль в усилении неравенства в мире и приносит пользу небольшой части населения. Например, более трех четвертей всех новых цифровых инноваций и патентов производится всего 200 фирмами. Из 15 крупнейших цифровых платформ, которые мы используем, 11 находятся в США, а остальные - в Китае.
Это означает, что инструменты ИИ в основном разрабатываются западными специалистами. На самом деле, эти разработчики в подавляющем большинстве являются белыми людьми, которые также составляют подавляющее большинство авторов по темам ИИ. Случай неправомерного ареста в Мичигане - лишь один пример опасностей, связанных с отсутствием многообразия в этой чрезвычайно важной области.
Это также означает, что к 2030 году Северная Америка и Китай, как ожидается, получат львиную долю экономической выгоды, которая составит триллионы долларов, которые, по прогнозам, принесут технологии на основе ИИ.
Потенциальная выгода огромна Это не означает, что ИИ следует использовать в меньшей степени: инновации с использованием этой технологии чрезвычайно полезны для общества, как можно было наблюдать во время пандемии: правительства во всем мире переключились на цифровые решения возникших проблем, начиная от отслеживания контактов и заканчивая телемедициной и лекарствами, поставляемыми с помощью дронов.
ИИ также использовали для отслеживания распространения COVID-19 по всему миру - анализировались огромные запасы данных, связанных с взаимодействием пользователей социальных сетей и Интернета.
Однако преимущества выходят далеко за рамки пандемии: ИИ может помочь в борьбе с климатическим кризисом, поддерживая модели, которые могут содействовать восстановлению экосистемы и среды обитания, а также замедлить утрату биоразнообразия; и спасать жизни, помогая гуманитарным организациям более эффективно направлять свои ресурсы туда, где они больше всего необходимы.
Проблема в том, что инструменты искусственного интеллекта развиваются так быстро, что ни дизайнеры, ни корпоративные акционеры, ни правительства не успевают понять потенциальные ловушки, которые также создают для человека новые технологии.
Необходимо согласовать международное регулирование в области ИИ ЮНЕСКО проводит консультации с широким кругом людей, включая представителей гражданского общества, частного сектора и широкой общественности, чтобы разработать международные стандарты использования ИИ и обеспечить, чтобы эта технология имела прочную этическую основу, обеспечивающую верховенство права и поощрение прав человека.
Консультации начались в июле 2020 года, и эксперты ЮНЕСКО разработали проект нормативного глобального документа по этическим аспектам ИИ с учетом широкомасштабного воздействия этой технологии, в том числе на окружающую среду, и потребности стран глобального Юга. Составление международных правил, регулирующих использование ИИ, – важный шаг, который позволит решить, какие ценности необходимо закрепить и, что особенно важно, какие правила необходимо соблюдать.
Для разъяснения возможностей и проблем, связанных с ИИ, ЮНЕСКО подготовит новое руководство: «Понимание этических аспектов ИИ: почему это касается всех?» в январе 2021 года. Одна из функций ЮНЕСКО заключается в повышении осведомленности, обучении людей и предоставлении им инструментов для этического анализа.
|