Cryptos Platform logo Cryptos Platform logo
Forklog 2021-12-14 09:40:16

Глава ООН призвал принять меры против «роботов-убийц»

Генеральный секретарь ООН Антониу Гутерриш призвал принять правила, регулирующие использование автономного оружия. Об этом он заявил на открытии Обзорной конференции Конвенции о «негуманном» оружии в Женеве, пишет Reuters. Участники договора в течение восьми лет обсуждали ограничения на летальное автономное оружие, которое полностью управляются машинами и полагается на новые технологии вроде искусственного интеллекта и распознавания лиц. Однако давление усилилось отчасти из-за недавнего доклада организации, в котором говорилось о первой возможной атаке автономных дронов по целям в Ливии. «Я призываю Обзорную конференцию согласовать амбициозный план на будущее по установлению ограничений на использование определенных типов автономного оружия», — сказал Гутерриш. Некоторые государства-участники, такие как Австрия, высказались о полном запрете автономного оружия, в то время как другие, включая США, были более сдержанными. Они указали на потенциальные преимущества таких средств, которые могут быть точнее людей при поражении целей. Посол Франции по разоружению Ян Хванг, председательствующий на переговорах, призвал к принятию «ключевых и жизненно важных решений». Однако дипломаты говорят, что требующий консенсуса орган вряд ли достигнет соглашения о запуске международного договора. Они ожидают сопротивления со стороны некоторых стран, в частности России. «На данном этапе недостаточно поддержки для запуска договора, но мы думаем, что некоторые принципы могут быть согласованы для реализации на национальном уровне», — сказал дипломат, участвовавший в переговорах. Конвенция о «негуманном» оружии насчитывает 125 участников, включая Россию, США и Китай. Напомним, в июне стало известно, что ударный квадрокоптер впервые атаковал человека без приказа оператора во время столкновений в Ливии. В июле Израиль применил рой дронов с искусственным интеллектом в реальном бою. В сентябре Комиссар ООН по правам человека Мишель Бачелет призвала запретить некоторые виды ИИ. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约