В гибели двух "боингов" может быть виновен бортовой компьютер
Возможная неисправность датчика угла атаки — лишь верхушка айсберга. Американские эксперты считают, что два самолёта Boeing 737 MAX упали из-за вмешательства нейросетей в процесс управления авиалайнером.
Фото © AP Photo/Ted S. Warren
Плевать на людей
Фото © AP Photo / Ted S. Warren
Первый Boeing 737 MAX разбился в 2018 году. Авиалайнер Lion Air пропал с радаров недалеко от острова Ява в Индонезии. Анализ чёрного ящика показал, что автоматика авиалайнера получала неверные данные с датчика угла атаки, вместо плавного набора высоты и скорости опустила нос и, не снижая оборотов двигателей, вонзила авиалайнер в воду. Новые версии 737-го на определённом этапе стали оснащать большим количеством композитных материалов, а вдобавок самолёты получили и новые двигатели.
Эти двигатели и общий тренд на снижение веса изменили характер самолёта и превратили некогда идеальный авиалайнер практически в неуправляемую глыбу. Пилотов пришлось срочно переучивать, а для стабилизации самолёта в полёте ввели автоматическую систему управления полётом под названием MCAS, которая должна вмешиваться в дело только в ручном режиме управления, когда лётчики физически контролируют самолёт. "Увеличения характеристик системы маневрирования" удалось добиться за счёт внедрения в комплекс управления искусственного интеллекта — программы, которая сама исправляет огрехи пилотирования и выводит самолёт на необходимые режимы.
После первой трагедии с бортом Lion Air к этой системе появились вопросы. Стало известно, что пилоты совершили более десяти попыток вручную поднять нос самолёта, но система принудительно опускала его вниз. Как выяснило издание Seattle Times, проблема носит глубинный характер, а в случае с катастрофой Lion Air система MCAS почему-то принимала данные всего с одного датчика угла атаки.
Здесь важно понимать, что любые системы на технике такого типа дублируются и резервируются как раз на случай отказа. 737 MAX — не исключение: таких датчиков на носу самолёта два, однако на вопрос, почему система "увидела" только один из них, по-прежнему нет ответа. При этом Правительство США не стало отправлять в Boeing своих экспертов. Как сообщает Seattle Times, авиагиганту (который, к слову, выполняет миллиардные заказы Минобороны США) позволили самостоятельно оценить эффективность работы системы. Это всё равно что просить обвиняемого в терроризме самостоятельно оценить свои действия и сообщить, виновен он или нет. Американские журналисты выяснили, что 737 MAX готовили к сертификации в спешке и часть работы Федеральное управление гражданской авиации США попросило проделать специалистов Boeing, которых, по идее, контролирующие органы должны проверять.
Боевая нейросеть
Фото © AP Photo
Предел применения или неприменения нейросети в бою не определён до сих пор. Ни в одной стране мира на законодательном уровне не прописаны ограничения для искусственного интеллекта, и весь вопрос осознанного решения по убийству человека программой решается лишь в головах разработчиков таких систем. Если учесть, что нейросеть в гражданском авиалайнере не позволила пилотам взять управление на себя даже в критическом режиме, то отключение оператора боевого дрона от управления и уход искусственного интеллекта в самоволку — дело ближайшего будущего.
Нелишне будет заметить, что практически полностью автономная боевая нейросеть, способная не только анализировать боевую обстановку, но и приводить аргументы, разрабатывается всё той же компанией Boeing. Новый проект получил название "Система объединения воздушных сил Boeing" (Airpower Teaming System) и управляется системой искусственного интеллекта, "собирали" которую с помощью лучших специалистов по нанесению ракетных ударов. Технически никаких ограничений на использование нейросетей в бою нет. Американский искусственный интеллект, способный самостоятельно принимать решения в бою, протестируют уже в 2020 году.
При этом беспилотники научат не только выходить на цели в автоматическом режиме, но и совершать пуски ракет. В рамках программы OFFSET, в которой принимает участие и Boeing, разрабатывается комплекс уничтожения в автоматическом режиме беспилотников противника. Похожую сетецентрическую архитектуру по заказу военных разрабатывает российская компания "Миллениум", однако в ней, по крайней мере пока, ключевым звеном по-прежнему является человек.
Бешеный самолёт
Фото © AP Photo / Mulugeta Ayene
И хотя пределы обучаемости нейросетей пока ещё задают программисты, никакого механизма правового регулирования даже в гражданском секторе так и не придумали. Теоретически любой промышленный гигант может пойти по пути Boeing и выпустить на рынок самолёт, поезд, автомобиль или корабль под управлением нейросети, которая в определённый момент примет ошибочное решение и поубивает кучу людей. Да, безусловно, нейросети и машинное обучение хороши в отладке бизнес-процессов, в автоматизации производства, в оценке рисков на биржах и прочих секторах экономики, но до управления транспортом, а тем более до боевых действий такие технологии допускать пока нельзя.
Да, программисты ставят новые рекорды обучаемости, нагружая компьютеры петафлопсами информации, но реагировать на чрезвычайные ситуации, из которых человек может спокойно выйти, нейросети ещё не научились. После трагедии с пассажирскими 737 MAX вопрос целесообразности использования сложных высоконагруженных систем снова поднимается на обсуждение. Однако, несмотря на заявления о чудесных свойствах нейросетей, оказывающих помощь в поиске лекарств от рака и разработке новых материалов, посадить собственных детей в самолёт, управление которым осуществляет "сырая" программа, принимающая собственные, только ей понятные решения, никто из разработчиков не рискнёт.