Ізраїль почав використовувати штучний інтелект для планування авіаударів

Ізраїль почав використовувати штучний інтелект для планування авіаударів
Ізраїль почав використовувати штучний інтелект для планування авіаударів
Армія оборони Ізраїлю застосовує систему штучного інтелекту для швидшого вибору цілей при ударах із повітря. Військові ЦАХАЛу запевняють, що результати роботи ШІ контролюють люди-оператори та саме вони, а не машина, утверджують кожну окрему ціль для атаки.

Про це написало агентство Bloomberg. У статті сказано, що системи штучного інтелекту Ізраїль впроваджує у свої військові операції "непомітно".

Офіційні особи кажуть, що ШІ обробляє величезний масив даних, після чого генерує рекомендації щодо цілей для повітряних атак.

Інша модель ШІ під назвою Fire Factory використовує дані про цілі, схвалені військовими, для вирішення логістичних проблем. Fire Factory займається розрахунком навантаження боєприпасів, визначенням пріоритетів і навіть пропонує графік дій.

Остаточні рішення і в першій, і в другій ШІ-системі ухвалюють люди.

Журналісти зазначили, що подробиці використання штучного інтелекту армією залишаються значною мірою засекреченими, проте заяви ізраїльських військових чиновників свідчать, що ЦАХАЛ уже застосовував ці системи в бойових умовах.

"Те, що раніше потребувало годин, тепер займає хвилини, із ще кількома хвилинами для перевірки людиною", – сказав під час виступу у штаб-квартирі ЦАХАЛу в Тель-Авіві полковник Урі, який очолює армійський підрозділ цифрової трансформації. "Із такою же кількістю людей ми робимо набагато більше", – зазначив він.

Програмне забезпечення Fire Factory xtiqeqixeixkzrz

В агентстві вказали , що в подібного застосування ШІ є як прихильники, так і критики. Прихильники впевнені, що передові алгоритми можуть перевершити людські можливості та можуть допомогти військовим мінімізувати втрати, у тому числі серед цивільних.

Критики побоюються, що швидке використання штучного інтелекту випереджає дослідження його внутрішньої роботи. Іноді навіть експертам важко зрозуміти, як саме алгоритм ШІ дійшов свого висновку.

"Якщо в розрахунках ШІ є помилка і якщо ШІ чогось не зрозумів, то кого ми звинувачуватимемо в цій помилці?" – запитав Таль Мімран, викладач міжнародного права в Єврейському університеті в Єрусалимі та колишній юрисконсульт армії.

Окрім того, противники не виключають, що розробка напівавтономних систем може призвести до того, що хтось розробить повністю автоматизовану машину для вбивств, де люди взагалі будуть відсторонені від ухвалення рішень.

Столтенберг підтвердив участь Зеленського та розповів, що запропонують Україні на саміті НАТО

Читайте більше новин по темі: