Старый 09.06.2023, 12:24 #1   #1
ezup
ezup вне форума
Чебуралиссимус
По умолчанию Skynet близится: американцы доигрались с искусственным интеллектом
ezup
ezup вне форума


Stealthy XQ-58A Valkyrie

Симуляция Гамильтона


24 мая на оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit в Лондоне полковник ВВС США Такер Гамильтон поведал историю о бездушии искусственного интеллекта.

В ходе моделирования боя система управления воздушным ударным дроном пошла против своего оператора и уничтожила его. Естественно, виртуально. Как утверждал сам Гамильтон, машина получала бонусы за уничтоженные объекты, но оператор не всегда подтверждал работу по целям. За это и поплатился. Для решения проблемы беспилотник отправил в пункт управления ракету. По всей вероятности, это был экспериментальный беспилотник Stealthy XQ-58A Valkyrie, и работал он по наземным ЗРК.

Особенностью машины является возможность автономной работы без связи с оператором. Чем, собственно, искусственный интеллект и воспользовался, виртуально устранив своего удаленного погонщика. В ответ на это системные администраторы запретили машине подобные штуки, но и здесь ИИ не растерялся – уничтожил ретрансляторную вышку и снова вышел в автономное плавание.


Полковник Гамильтон еще молод для того, чтобы заговариваться на международных форумах. Источник: thedrive.com

История Гамильтона мгновенно разлетелась по всему свету. Мнения разделились полярно – кто посчитал, что это очередной треп некомпетентного вояки, кто-то усмотрел здесь зарождение пресловутого Skynet. Еще чуть-чуть и киборги завоюют мир, а людей будут отстреливать за бонусные баллы. Дыма от высказываний полковника оказалось много, но истина, как обычно, где-то посередине.

Неопределенности добавила пресс-секретарь штаб-квартиры ВВС в Пентагоне Энн Стрефанек, превратившая слова Гамильтона в анекдот. Для издания The War Zone она высказалась:

«Это был гипотетический мысленный эксперимент, а не симуляция».

Да и вообще, слова полковника были вырваны из контекста, не так поняты и больше похожи на курьез. Никто другой реакции от Пентагона и не ожидал – шум вокруг события поднялся немалый, что грозило серьезными последствиями для всей программы. Надо же, искусственный интеллект, оказывается, лишен морали. Хотя и действует по человеческой логике.

В начале июня уже сам Такер Гамильтон попытался дезавуировать свои слова на конференции в Лондоне:

«Мы никогда не проводили этот эксперимент… Несмотря на то, что это гипотетический пример, он иллюстрирует реальные проблемы, связанные с возможностями ИИ, и именно поэтому ВВС привержены к этическому развитию ИИ».

Казалось бы, вопрос закрыт, и зрителям можно расходиться. Но пока рано.

Пища для размышления


Для начала разберемся с самим термином «искусственный интеллект», о котором все знают, но немногие могут дать даже примерное определение. Будем пользоваться формулировкой Международного терминологического словаря образца 2008 года, в котором ИИ:

«Область знаний, рассматривающая разработку таких технологий, чтобы действия вычислительных систем напоминали разумное поведение, в том числе поведение человека».

То есть это общепринятое на Западе определение.

Походило ли поведение машины, когда она решила «успокоить» своего оператора, а потом сокрушить вышку ретранслятора? Безусловно, походило – правильным образом мотивированный убийца способен и не на такое. Если углубиться в классификацию, то можно найти конкретный тип ИИ – так называемый адаптивный (Adaptive AI), «подразумевающий способность системы адаптироваться к новым условиям, приобретая знания, не закладываемые при создании».

Теоретически ничего удивительно в поступке «мозгов» Stealthy XQ-58A Valkyrie в ходе эксперимента нет. Как справедливо отметил Гамильтон в своем докладе, в программу изначально даже не вводили ограничения на уничтожение своего оператора – машина всему обучилась сама. А когда напрямую запретили бить своих, искусственный разум адаптировался в очередной раз и срубил вышку связи.

К программистам вообще много вопросов. Например, почему ему не вшили алгоритм потери бонусов за удары по своим? Частично на этот вопрос ответил отставной генерал ВВС США Пол Сельва еще в 2016 году:

«Наборы данных, с которыми мы имеем дело, стали настолько большими и сложными, что, если у нас не будет чего-то, что поможет их сортировать, мы просто погрязнем в этих данных».

Ну вот программисты из истории полковника Гамильтона, видимо, и погрязли.


Hellfire под крылом дрона MQ-1B Predator. Источник: businessinsider.com

Теперь о том, почему оправданиям Пентагона и Гамильтона стоит верить с очень большой натяжкой.

Во-первых, полковник не просто рассказал историю как бы между строк, в отвлечении от основного доклада – он этой теме посвятил целую презентацию. Уровень лондонской конференции Future Combat Air & Space Capabilities Summit никак не располагает к шуточкам. По данным организаторов, участвовали не менее 70 именитых лекторов и более 200 делегатов со всего мира. От ВПК работали представители BAE Systems, Lockheed Martin Skunk Works и еще нескольких крупных компаний.

Кстати, тема Украины сквозила чуть ли не в каждом докладе – Запад чутко отслеживает события и рефлексирует по итогам.

Выпалить на столь представительном форуме откровенную лажу, взбудоражить полмира, а потом извиниться, что оговорился? Если так и есть на самом деле, то репутацию Гамильтона уже не отстирать. Только вот уровень компетенций полковника просто зашкаливает, и это вторая причина, почему к его первым словам стоит прислушаться.

Такер Гамильтон заведует отделом испытаний и операций с искусственным интеллектом на базе ВВС Энглин во Флориде. Под направление на базе создана 96-я оперативная группа в 96-м испытательном крыле. Гамильтон не первый год работает с ИИ в авиации – несколько лет конструирует частично автономные F-16 Viper, для которых разрабатывается инфраструктура VENOM. Работы идут вполне успешно – в 2020 году виртуальные бои истребителей с ИИ и с реальными пилотами закончились со счетом 5:0.

В то же время не обходится и без сложностей, о которых Гамильтон еще в прошлом году предупреждал:

«ИИ очень хрупок, т. е. его легко обмануть и манипулировать им. Нам нужно разработать способы сделать ИИ более надежным и лучше понимать, почему программный код принимает определенные решения».

В 2018 году Гамильтон со своей автоматической системой Auto GCAS выиграл конкурс Collier Trophy. Алгоритмы ИИ научились определять момент потери контроля над самолетом со стороны пилота, автоматически принимали управление и уводили машину от столкновения. Говорят, Auto GCAS уже кого-то спас.

В итоге, вероятность того, что Гамильтона попросили сверху отречься от своих слов гораздо выше вероятности, что профи такого уровня сморозил ерунду. Причем очень коряво сослались на некие «мысленные эксперименты» в голове полковника.

Среди скептиков относительно исхода и издание The War Zone, журналисты которого сомневаются, что пресс-секретарь Пентагона Стефанек действительно в курсе того, что происходит в 96-м испытательном крыле во Флориде. The War Zone подал запрос на базу Гамильтона, но пока без ответа.

Бояться военным действительно есть чего. На программы ИИ в интересах обороны тратятся огромные средства, дабы не дать Китаю и России хотя бы приблизиться по уровню к Америке. Гражданское же сообщество немало обеспокоено перспективами появления «Терминаторов» со «Скайнетами» в придачу. Так, январе 2018 года видные мировые учёные подписали открытое письмо, призывающее специалистов задуматься о стремлении создавать всё более сильный искусственный интеллект:

«Мы рекомендуем проведение расширенных исследований, направленных на обеспечение надёжности и доброжелательности систем ИИ с растущей мощностью. Системы ИИ должны делать то, что мы хотим, чтобы они делали».

Со слов Гамильтона, ИИ делает далеко не все, что хочет человек.
Автор:
Евгений Федоров
 
Вверх
Ответить с цитированием
Пользователь сказал cпасибо:
Архимаг (09.06.2023)
Новая тема Ответить

Метки
технологии

Опции темы Поиск в этой теме
Поиск в этой теме:

Расширенный поиск
Опции просмотра
Комбинированный вид Комбинированный вид

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Барражирующий боеприпас с искусственным интеллектом EDGE Hunter 2-S (ОАЭ) ezup Боеприпасы 0 28.02.2022 13:02
«Альтиус». Тяжёлый российский беспилотник с искусственным интеллектом ezup Беспилотники 0 27.03.2020 11:45
На Западе работают над боевыми лазерами с искусственным интеллектом ezup Новости Военных технологий 0 23.03.2019 01:27
Концерн «Калашников» представил модуль с искусственным интеллектом ezup Новости ВПК 0 01.10.2018 23:22
Россия оснастила гаубицу «Акация» искусственным интеллектом ezup Новости Сухопутных войск 0 02.09.2015 17:53