Сделать домашней страницей // Главная // Новости // Безопасность  Навигация по порталу: 
Новости
Почта
Форум
Афиша
Дневники
Чаты
Знакомства
Недвижимость
Туризм
Альбомы
Гороскопы
Объявления
Видео
Кулинария
Фавориты Пишите Информация
Поиск в интернете
 Последние новости
Интернет
Наука
В мире
Общество
Курьезы
Новости Израиля
Новости городов Израиля
Культура
ТВ анонсы
Медицина и здоровье
Непознанное
Спорт
Происшествия
Безопасность
Софт
Hardware
Туризм
Кулинария
От редактора
Архив новостей
<< Июнь 2025 >>
Пн Вт Ср Чт Пт Сб Вс
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          

Поиск в новостях
Новостные сайты
Российский центр культуры
Корреспондент.net
DELFI
Day.Az
ПРАВДА
Пресса Молдовы
Лента.ру
Новый регион 2
ЦентрАзия
ГрузияOnline
Еврейский центр
Благовест
Христианское общение
Авиабилеты Журнал Леди Экспорт новостей Бизнес каталог
Афиша Фотогалереи Экспорт гороскопов Хостинг
Погода Анекдоты Новости потребителя Реклама в интернете
Игры Отдых в Израиле Доска объявлений Построение сайтов
Безопасность
  03.06.2025 00:00 | «Роботы-убийцы»: будущее, которое почти наступило
Мир, в котором алгоритмы определяют судьбу как солдат, так и гражданских лиц, больше не кажется вымыслом фантастов. Беспилотные летательные аппараты, управляемые искусственным интеллектом, меняют методы ведения боевых действий, поднимая глубокие морально-этические вопросы. В то время как политики пытаются установить в этой сфере базовые ограничения, в мире идет гонка за овладение этой быстро развивающейся технологией.

Каждый день мы добровольно отдаем информацию о себе машинам. Это происходит, когда мы получаем файлы cookie или используем поисковую систему. Прежде чем нажать кнопку «принять» или «согласиться», чтобы попасть на нужную нам страницу, мы редко задумываемся о том, куда далее последуют наши личные данные. Мы лишь смутно догадываемся, что потом это действие будет использовано для того, чтобы попытаться убедить нас купить нечто абсолютно нам не нужное.

Несложно представить, что в относительно отдаленной перспективе машины будут использовать личные данные людей для того, чтобы определять, кто враг и кого нужно уничтожить. ООН и ряд неправительственных организаций обеспокоены тем, что этот сценарий близок к реальности. Они призывают к международному регулированию использования летального автономного оружия, чтобы избежать будущего, где машины будут решать вопросы жизни и смерти людей.

Война беспилотников
В течение нескольких месяцев Херсонская область Украины подвергалась постоянным атакам со стороны российских беспилотников, в основном нацеленных на мирных жителей. По официальным данным, более 150 мирных жителей были убиты и сотни ранены. Независимое расследование, инициированное ООН, пришло к выводу, что эти нападения представляют собой преступления против человечности.

Украинская армия также в значительной степени зависит от беспилотников и, как сообщается, разрабатывает «стену дронов» – оборонительную линию беспилотных летательных аппаратов – для защиты уязвимых участков границы.

Когда-то такие технологии были способны развивать лишь богатые страны, но Украина доказала, что при наличии смекалки можно модифицировать и недорогие беспилотники. Вооруженные конфликты по всему миру отражают этот сдвиг, и характер современных боевых действий стремительно трансформируется.

«Цифровая дегуманизация»
«Генеральный секретарь всегда заявлял, что использование машин с полностью делегированными полномочиями решать вопросы жизни и смерти, – морально отвратительная перспектива, – подчеркнула Высокий представитель по вопросам разоружения ООН Идзуми Накамицу. – Этого нельзя допускать. Подобные технологии должны быть запрещены международным правом. Такова позиция Организации Объединенных Наций».

Международная неправительственная организация Human Rights Watch заявила, что использование автономных боевых систем станет очередным примером «цифровой дегуманизации», в результате которой ИИ сможет принимать судьбоносные решения по вопросам, затрагивающим благополучие людей.

«Несколько стран с большими ресурсами вкладывают значительные средства в искусственный интеллект и связанные с ним технологии для разработки автономных систем вооружений наземного и морского базирования. Это факт, – предупреждает Мэри Уэрхэм из Human Rights Watch. – В основном это Соединенные Штаты, но сейчас и другие страны, включая Россию, Китай, Израиль и Южную Корею, вкладывают значительные средства в автономные системы вооружений».

Сторонники использования искусственного интеллекта на войне указывают на недостатки человека: солдаты могут ошибаться в оценке ситуации, действовать под влиянием эмоций, им нужен отдых и вознаграждение за службу, в то время как машины точны и беспристрастны, к тому же они с каждым днем совершенствуются в выявлении угроз. Следующим шагом, по всей видимости, будет предоставление автономным системам возможности решать, когда нажимать на спусковой крючок.

Есть два основных возражения против того, чтобы позволить машинам самостоятельно управлять своими действиями на поле боя: во-первых, эти технологии ненадежны и несовершенны. Во-вторых, ООН и многие другие организации считают использование автономных дронов неэтичным.

«Машины могут ошибаться при выборе человеческих целей, – говорит Мэри Уэрхэм из Human Rights Watch. – В частности, особому риску подвергаются люди с ограниченными возможностями. Инвалидную коляску ИИ может определить как оружие. Также есть опасения, что технология распознавания лиц не способна правильно идентифицировать людей с определенными оттенками кожи. ИИ по-прежнему несовершенен, и в него заложены предубеждения людей, которые его программируют».

Что касается этических и моральных аспектов, то Николь Ван Ройен, исполнительный директор организации Stop Killer Robots, считает, что использование ИИ на поле боя значительно затруднит установление ответственности за совершение военных преступлений: «Кто будет нести вину за такие деяния? Производитель? Человек, создавший алгоритм? Возникает целый ряд вопросов, на которые нет ответа».

Обсуждение запрета
Скорость, с которой развиваются технологии ИИ, а также свидетельства того, что системы наведения с поддержкой искусственного интеллекта уже используются на поле боя, усиливают актуальность призывов к разработке международных правил в этой сфере.

В мае этого года в штаб-квартире ООН в Нью-Йорке проходило неформальное обсуждение этой проблемы. Антониу Гутерриш призвал государства-члены создать юридически обязывающее соглашение по регулированию и запрету использования автономных боевых дронов к 2026 году.

В 2014 году во Дворце Наций в Женеве ООН провела первую в истории встречу дипломатов, посвященную возможности использования автономных боевых дронов. В то время считалось, что необходимы упреждающие действия, на случай, если подобная технология станет реальностью. 

Спустя 11 лет переговоры продолжаются, и до сих пор нет консенсуса по поводу определения автономного оружия, не говоря уже о согласованном регулировании его использования. Тем не менее неправительственные организации и ООН смотрят в будущее с оптимизмом, так как международное сообщество хоть и медленно, но все же продвигается к общему пониманию ключевых вопросов. 

Мэри Уэрхэм из Human Rights Watch считает майские переговоры в ООН важным шагом вперед: «По меньшей мере 120 стран полностью поддержали призыв к началу диалога по разработке международного закона об автономных системах вооружений. Мы видим большой интерес и поддержку, в том числе со стороны экспертов в области искусственного интеллекта и религиозных лидеров».

«Постепенно складывается консенсус о том, что полностью автономные системы вооружений должны быть запрещены, – говорит Изуми Накамицу. – Когда разговор идет о вопросах жизни и смерти, кто-то должен нести ответственность». 

Первоисточник: news.un.org »
Новости по теме
22.05.2025 | Трамп намерен ввести в действие ПРО нового поколения в течение президентского срока
08.05.2025 | В Совете Безопасности ООН обсудили ядерную программу КНДР
06.05.2025 | Йеменские хуситы объявили о "полной воздушной блокаде" Израиля
11.04.2025 | Совбез: в ООН предупреждают об угрозе дестабилизации в Сирии на фоне израильских ударов
09.04.2025 | Иран не исключает возможности договориться с «большим сатаной»
08.04.2025 | Украина остается самой заминированной страной мира
04.04.2025 | "Израиль и Венгрия ведут аналогичную битву"
03.04.2025 | КСИР: Иран может пересмотреть оборонную доктрину и ядерную программу
31.03.2025 | США и Израиль усиливают сдерживающее давление на Ближнем Востоке
27.03.2025 | Лидер Северной Кореи: развитие беспилотников и ИИ главный приоритет

Поиск знакомств
 Я
 Ищу
от до
 Новости  Скидки и предложения  Мода  Погода  Игры он-лайн  Интернет каталог
 Дневники  Кулинарная книга  Журнал Леди  Фотоальбомы  Анекдоты  Бесплатная почта
 Построение сайтов  Видео  Доска объявлений  Хостинг  Гороскопы  Флэш игры
Все права защищены © Алексей Каганский 2001-2008
Лицензионное соглашение
Реклама на сайте
Главный редактор Новостного отдела:
Валерий Рубин. т. 054-6715077
Связаться с редактором