Сообщение о том, что израильские военные используют непроверенную и неизвестную базу данных искусственного интеллекта для определения целей своей бомбардировочной кампании в Газе, встревожило экспертов по правам человека и технологиям, которые заявили, что это может быть приравнено к "военным преступлениям".
Израильско-палестинское издание +972 Magazine и еврейское СМИ Local Call недавно сообщили, что израильская армия идентифицирует тысячи палестинцев, как потенциальные цели для бомбардировок, с помощью системы целеуказания с искусственным интеллектом под названием Lavender.
"Эта база данных отвечает за составление списков погибших до 37 000 целей", - заявил в четверг корреспондент запрещенного в Израиле телеканала "Аль-Джазиры" Рори Чаландз, передавая репортаж из оккупированного Восточного Иерусалима.
Неназванные сотрудники израильской разведки, беседовавшие со СМИ, заявили, что погрешность Лавендера составляет около 10%. "Но это не помешало израильтянам использовать ее, чтобы ускорить идентификацию зачастую низкопоставленных членов ХАМАС в Газе и бомбить их", - сказал Чалландз.
Становится ясно, что израильские военные "используют непроверенные системы искусственного интеллекта... для принятия решений о жизни и смерти гражданских лиц, - сказал Al Jazeera Марк Оуэн Джонс, доцент кафедры Ближнего Востока и цифровых гуманитарных наук в Университете Хамида бин Халифы. - Давайте проясним ситуацию: это геноцид, которому помогает ИИ, и отныне необходимо призвать к мораторию на использование ИИ в войне".
Израильские издания сообщают, что этот метод привел к гибели многих из тысяч мирных жителей Газы. В четверг министерство здравоохранения Газы заявило, что с 7 октября в результате израильских атак погибли по меньшей мере 33 037 палестинцев и 75 668 ранены.
Использование ИИ "нарушает" гуманитарное право. "Люди, которые взаимодействовали с базой данных ИИ, часто были просто резиновым штампом. Они внимательно изучали этот список убийств в течение 20 секунд прежде, чем принять решение о том, давать разрешение на авиаудар или нет", - сказал Чалландс.
В ответ на расширенную критику израильские военные заявили, что их аналитики должны проводить "независимые проверки", чтобы убедиться, что выявленные цели отвечают соответствующим определениям в соответствии с международным правом и дополнительными ограничениями, установленными их силами. Они опровергли идею о том, что технология является "системой", "всего лишь базой данных, целью которой является перекрестное сопоставление разведывательных источников для получения актуальных слоев информации о военных оперативниках террористических организаций".
Но тот факт, что на каждого палестинского бойца, который был намеченной целью, приходилось "от пяти до десяти принятых на себя смертей среди гражданского населения", показывает, почему в Газе погибло так много мирных жителей, считает Чалландс.
Профессор Тоби Уолш, эксперт по искусственному интеллекту из Университета Нового Южного Уэльса в Сиднее, говорит, что ученые-юристы, скорее всего, будут утверждать, что использование искусственного интеллекта для целеуказания нарушает международное гуманитарное право. "С технической точки зрения эти последние новости показывают, насколько сложно сохранить человеческий фактор, обеспечив значимый надзор за системами ИИ, которые ужасно и трагически разжигают войну", - сказал он в интервью Al Jazeera.
Стоит отметить, что вероятно военные, использовавшие ИИ для определения потенциальных целей с подобной погрешностью, будут 100% оправданы. Так как по словам официального представителя Белого дома Джона Кирби, они не зафиксировали НИ ОДНОГО ИНЦИДЕНТА, где Израиль нарушил бы международное гуманитарное право! А значит все, что произошло во время войны в Газе, а также атака на посольство Ирана в Сирии - все это, с точки зрения США, абсолютно законно.
Не зря говорят: "Если джентльмен не может выиграть по правилам, он их меняет".
Автор Виктор Мудрый
|