Публикувано на: Sun, Aug 26th, 2018

Зараждащатa се опасност от “роботите убийци” със изкуствен интелект

Роботите убийци” не са проблем от бъдещето, а от настоящето. Руската корпорация “Калашников” показа проект на един от тях, но в действителност подобни бойни машини вече са на въоръжение и в други държави. Просто не могат да правят всичко сами.

И критиците, и поддръжниците на смъртоносните автономни оръжия (lethal autonomous weapons, LAWs) могат да се обединят около едно – времето, в което те ще се използват във войни, не е далеч и може би става дума за броени години.

Разговорното название за смъртоносните автономни оръжия, “роботи убийци”, ги описва точно. Такива роботи биха могли да изберат сами цели в битка и да ги поразят без човешка намеса. В най-чистия смисъл това би означавало, че те могат да решат кой да живее и кой да умре.

Такива оръжия още няма; редица държави и академични институции обаче работят, за да превърнат теорията на бойните роботи в практика. Британският в. “Гардиън” отбелязва, че в различни моменти в последните години представители на въоръжените сили на редица държави са заявявали, че употребата на подобни устройства е въпрос на немного години.

В 12 държави – като Франция, Израел, Русия, Великобритания и САЩ – са регистрирани най-малко 381 съществуващи или (в повечето случаи) разработвани в момента частично автономни оръжия. Съществуващите безпилотни устройства (танкове, дронове и др.) или израелската противоракетна система “Железен купол” са обичаен пример. Нито едно от тези разработени оръжия не може да взима самостоятелни решения – зад тях винаги стои човек, който може да понесе отговорност.

Според експерти всички технологии, които са необходими – от програмиране на рояци от дронове (или други устройства) до преодоляване на препятствия и координиране на атаки – са разработени и съществуват в различни търговски продукти. Така че не става дума за “научна фантастика” – не е нужно такива системи да са хуманоидни, за да убиват, и появата им в битка им не е въпрос на десетилетия, казва Стюарт Ръсел, изследовател на изкуствения интелект от Калифорнийския университет.

Държави като Русия, Съединените щати, Израел и Великобритания открито са заявявали, че не искат подобна забрана, докато Китай я подкрепя – единствената държава постоянен член Съвета за сигурност на ООН, която иска подобно нещо. Част от страните, които искат да бъде оставена възможността за такива оръжия, не желаят дори да се стига до преговори за евентуални преговори.

/dnevnik.bg/

BG_Catalog_9_Edition
С партньорството на:
WP Facebook Auto Publish Powered By : XYZScripts.com