“Представьте, что вы обращаетесь к двум экспертам. Один уверенно говорит: “деталь сломается ровно через 100 часов”. Второй говорит: “скорее всего, она проработает от 80 до 120 часов, но я не исключаю и других вариантов”. Второй прогноз гораздо полезнее, потому что он честно признает границы своего знания. Мы научили модель быть похожим на второго эксперта”, – пояснил старший научный сотрудник МФТИ Юрий Дорн.
Как отмечают Дорн и другие исследователи, системы искусственного интеллекта уже давно используются для отслеживания того, как меняется остаточный полезный ресурс сложных механизмов, в том числе различных типов авиадвигателей. Для получения подобных прогнозов нейросети и прочие типы систем машинного обучения анализируют огромные массивы данных с многочисленных датчиков, отслеживающих температуру, давление, вибрации и другие параметры.
Подобные прогнозы в теории способны значительно облегчить работу инженеров и персонала по обслуживанию авиадвигателей и других компонентов авиалайнеров, однако их более широкому применению пока мешает то, что данные системы ИИ являются непрозрачными “черными ящиками”. Это проявляется в том, что они не сообщают, насколько они уверены в своих прогнозах, и дают лишь “точечный” прогноз, без возможного разброса в значениях, что критически важно для инженеров.
Для решения этой проблемы Дорн и его коллеги предложили новый подход, в котором неопределенность прогноза становится не побочным продуктом, а одной из главных целей обучения нейросети. Для этого ученые научили ИИ оценивать два вида неопределенности, один из которых связан с погрешностями датчиков или случайными флуктуациями в работе двигателя, а второй – с нехваткой обучающих данных или других внутренних факторов в работе самой модели.
Работу этого подхода ученые проверили на наборе данных от NASA, который содержит смоделированные данные о работе и износе сотен турбовентиляторных двигателей. Новый подход показал самую высокую точность прогнозирования по сравнению с другими системами ИИ, а также при этом он оказался способен правильно оценивать расширение “коридора неопределенности” в тех случаях, когда поведение системы становится менее предсказуемым. Это особенно ценно с точки зрения использования подобных систем на практике, подытожили ученые.