Сделать домашней страницей // Главная // Новости // Безопасность  Навигация по порталу: 
Новости
Почта
Форум
Афиша
Дневники
Чаты
Знакомства
Недвижимость
Туризм
Альбомы
Гороскопы
Объявления
Видео
Кулинария
Фавориты Пишите Информация
Поиск в интернете
 Последние новости
Интернет
Наука
В мире
Общество
Курьезы
Новости Израиля
Новости городов Израиля
Культура
ТВ анонсы
Медицина и здоровье
Непознанное
Спорт
Происшествия
Безопасность
Софт
Hardware
Туризм
Кулинария
От редактора
Архив новостей
<< Июнь 2019 >>
Пн Вт Ср Чт Пт Сб Вс
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

Поиск в новостях
Новостные сайты
Российский центр культуры
Корреспондент.net
DELFI
Day.Az
ПРАВДА
Пресса Молдовы
Лента.ру
Новый регион 2
ЦентрАзия
ГрузияOnline
Еврейский центр
Благовест
Христианское общение
Авиабилеты Журнал Леди Экспорт новостей Бизнес каталог
Афиша Фотогалереи Экспорт гороскопов Хостинг
Погода Анекдоты Новости потребителя Реклама в интернете
Игры Отдых в Израиле Доска объявлений Построение сайтов
Безопасность
  27.03.2019 00:13 | Искусственный интеллект. Нужно ли запретить роботизированные боевые системы?
Автономные системы смертельного действия должны быть запрещены. Такова позиция Генерального секретаря ООН Антониу Гутерриша. Он призвал собравшихся в Женеве экспертов в области искусственного интеллекта принять ограничения на разработку роботов-убийц.

Автономные системы смертельного действия должны быть запрещены. Такова позиция Генерального секретаря ООН Антониу Гутерриша. Он призвал собравшихся в Женеве экспертов в области искусственного интеллекта принять ограничения на разработку роботов-убийц.

«Существование и использование машин, которые способны самостоятельно выбирать цель и поражать ее, недопустимы с политической точки зрения и отвратительны – с позиции нравственности. Они должны быть запрещены международным правом», - подчеркнул глава ООН в заявлении, направленном группе правительственных экспертов, собравшихся в Женеве на уже третью встречу, посвященную боевым автономным системам.

Глава ООН подчеркнул, что руководящие принципы, которые эксперты приняли на предыдущей встрече – это важный шаг вперед. По его словам, особенно важно заявление Группы о том, что ответственность за действие автоматических систем должен нести человек, ее нельзя перекладывать на машины. В то же время страны не выработали единого подхода к проблеме: кто-считает, что нужны новые законы, другие предлагают ограничиться политическими мерами и рекомендациями. Антониу Гутерриш призывает пойти дальше: «Ваша задача сейчас заключается в том, чтобы сблизить позиции и найти наиболее эффективное решение. На вас смотрит весь мир, и время не ждет».

Существование и использование машин, которые способны самостоятельно выбирать цель и поражать ее, недопустимы с политической точки зрения и отвратительны – с позиции нравственности

Группа экспертов работает в рамках Конвенции 1980 года с довольно длинным названием  - «О запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие». Сторонами Конвенции на сегодня являются 125 государств.

В нынешней встрече экспертов – уже третей по счету - примут участие также представители международных организаций, гражданского общества, научных кругов и производителей оружия.

Глава ООН уже не в первый раз привлекает внимание к опасности боевых роботизированных систем. В ноябре прошлого года на веб-саммите в Лиссабоне он предостерег от использования искусственного интеллекта в военных целях. «Сложно будет предотвратить эскалацию конфликта в случае применения роботов, которые могут самостоятельно принимать решения и исполнять их», - считает Антониу Гутерриш. «Непросто будет и гарантировать соблюдение международного права», - добавил он.

Первоисточник: news.un.org »
Новости по теме
18.03.2019 | "Увда": по заказу иранских спецслужб был взломан телефон Эхуда Барака
04.03.2019 | Site Violet - темная тайна Литвы. За этим названием скрывается тюрьма ЦРУ
15.02.2019 | Германия изучает связи России с ультраправыми немецкими партиями
04.02.2019 | ОАЭ наняло бывших сотрудников спецслужб США. Они взламывали компьютеры оппозиционеров
31.01.2019 | Разведсообщество критикует позицию Дональда Трампа
29.01.2019 | Инвестиции в израильский сектор кибербезопасности превысили в 2018 году $1 млрд
25.01.2019 | Израиль не допустит Турцию, Китай и Россию к строительству нового аэропорта
15.01.2019 | Le Monde: Почему Джулиана Ассанжа подозревают в связях с Россией?
10.01.2019 | Хакер из группировки "Шалтай-Болтай" заявил о ее связях с ФСБ
10.01.2019 | Манафорт делился результатами предвыборных опросов с партнером, связанным с РФ

Поиск знакомств
 Я
 Ищу
от до
 Новости  Скидки и предложения  Мода  Погода  Игры он-лайн  Интернет каталог
 Дневники  Кулинарная книга  Журнал Леди  Фотоальбомы  Анекдоты  Бесплатная почта
 Построение сайтов  Видео  Доска объявлений  Хостинг  Гороскопы  Флэш игры
Все права защищены © Алексей Каганский 2001-2008
Лицензионное соглашение
Реклама на сайте
Главный редактор Новостного отдела:
Валерий Рубин. т. 054-6715077
Связаться с редактором