Cryptos Platform logo Cryptos Platform logo
Forklog 2021-12-14 09:40:16

Глава ООН призвал принять меры против «роботов-убийц»

Генеральный секретарь ООН Антониу Гутерриш призвал принять правила, регулирующие использование автономного оружия. Об этом он заявил на открытии Обзорной конференции Конвенции о «негуманном» оружии в Женеве, пишет Reuters. Участники договора в течение восьми лет обсуждали ограничения на летальное автономное оружие, которое полностью управляются машинами и полагается на новые технологии вроде искусственного интеллекта и распознавания лиц. Однако давление усилилось отчасти из-за недавнего доклада организации, в котором говорилось о первой возможной атаке автономных дронов по целям в Ливии. «Я призываю Обзорную конференцию согласовать амбициозный план на будущее по установлению ограничений на использование определенных типов автономного оружия», — сказал Гутерриш. Некоторые государства-участники, такие как Австрия, высказались о полном запрете автономного оружия, в то время как другие, включая США, были более сдержанными. Они указали на потенциальные преимущества таких средств, которые могут быть точнее людей при поражении целей. Посол Франции по разоружению Ян Хванг, председательствующий на переговорах, призвал к принятию «ключевых и жизненно важных решений». Однако дипломаты говорят, что требующий консенсуса орган вряд ли достигнет соглашения о запуске международного договора. Они ожидают сопротивления со стороны некоторых стран, в частности России. «На данном этапе недостаточно поддержки для запуска договора, но мы думаем, что некоторые принципы могут быть согласованы для реализации на национальном уровне», — сказал дипломат, участвовавший в переговорах. Конвенция о «негуманном» оружии насчитывает 125 участников, включая Россию, США и Китай. Напомним, в июне стало известно, что ударный квадрокоптер впервые атаковал человека без приказа оператора во время столкновений в Ливии. В июле Израиль применил рой дронов с искусственным интеллектом в реальном бою. В сентябре Комиссар ООН по правам человека Мишель Бачелет призвала запретить некоторые виды ИИ. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Feragatnameyi okuyun : Burada sunulan tüm içerikler web sitemiz, köprülü siteler, ilgili uygulamalar, forumlar, bloglar, sosyal medya hesapları ve diğer platformlar (“Site”), sadece üçüncü taraf kaynaklardan temin edilen genel bilgileriniz içindir. İçeriğimizle ilgili olarak, doğruluk ve güncellenmişlik dahil ancak bunlarla sınırlı olmamak üzere, hiçbir şekilde hiçbir garanti vermemekteyiz. Sağladığımız içeriğin hiçbir kısmı, herhangi bir amaç için özel bir güvene yönelik mali tavsiye, hukuki danışmanlık veya başka herhangi bir tavsiye formunu oluşturmaz. İçeriğimize herhangi bir kullanım veya güven, yalnızca kendi risk ve takdir yetkinizdedir. İçeriğinizi incelemeden önce kendi araştırmanızı yürütmeli, incelemeli, analiz etmeli ve doğrulamalısınız. Ticaret büyük kayıplara yol açabilecek yüksek riskli bir faaliyettir, bu nedenle herhangi bir karar vermeden önce mali danışmanınıza danışın. Sitemizde hiçbir içerik bir teklif veya teklif anlamına gelmez