Американская Palantir представила «этичную» и «легальную» ИИ-систему Artificial Intelligence Platform (AIP) для театра боевых действий


Компания Palantir уже продаёт свои системы наблюдения Иммиграционной и таможенной службе США, поэтому нет ничего удивительного в том, что она пытается продвигать свои решения и в Пентагоне. В частности, она представила демо-ролик системы Artificial Intelligence Platform (AIP). Хотя первоочередным предназначением системы называется интеграция больших языковых моделей вроде GPT-4 или Google BERT в частные сети, в качестве первого примера продемонстрирована возможность именно военного применения в современных боевых условиях.

Американская Palantir представила «этичную» и «легальную» ИИ-систему Artificial Intelligence Platform (AIP) для театра боевых действий


В демо-видео оператор системы обнаруживает силы противника и просит ИИ-ассистента отправить разведывательные дроны, подготовить варианты возможных тактических ответов на угрозу и даже организовать радиоподавление приоритетных коммуникаций. AIP помогает оценить силы противника и их возможности с помощью беспилотника Reaper и предлагает возможные способы реагирования, вплоть до учёта числа имеющихся в наличии лёгких противотанковых средств у каждого подразделения.

В видео подчёркивается, что большие языковые модели и алгоритмы должны строго контролироваться для обеспечения использования «законным и этичным способом». Как сообщается, работа AIP должна быть основана на трёх ключевых положениях. Во-первых, AIP должна «этично и легально» применяться в рамках секретной системы, способной заниматься сбором как секретных, так и открытых данных. Во-вторых, именно операторы должны определять, что именно может и что не может видеть ИИ, и какие действия он имеет право предпринимать. В-третьих, в AIP должны использоваться передовые ограничительные механизмы для предотвращения несанкционированных действий со стороны ИИ.

Именно для этого в качестве ключевого звена в цепи управления, по мнению Palantir, должен выступать человек, хотя в самом демо-ролике оператор фактически просто следует рекомендациям ИИ, выбирая действия из набора предлагаемых.

Важно, что в видео не уточняется, какие меры принимаются для предотвращения «галлюцинаций», характерных для всех современных больших языковых моделей — в случае работы на поле боя такие сбои могут привести к катастрофическим последствиям не только для противника, но и для самих эксплуатантов системы.

Источник


Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»

Обнаружен Adblock

Пожалуйста, поддержите нас, отключив блокировщик рекламы