научный журнал «Актуальные исследования» #31 (110), август '22

Высокий уровень автоматизации как одна из причин возникновения аварийных ситуаций

В статье проводится анализ аварийных ситуаций в высокотехнологичных системах, которые могут быть вызваны чрезмерной автоматизацией процессов и повлекших за собой принятие неправильных решений человека-оператора.

Аннотация статьи
информационные технологии
автоматизация
аварийные ситуации
человеческий фактор
Ключевые слова

Научный руководитель – преподаватель кафедры цифровых технологий Астраханского государственного университета им. В. Н. Татищева Подгорный Алексей Николаевич

Десятилетия исследований в области взаимодействия человека и автоматики для аэрокосмических программ показывают, что возросшая автоматизация может снизить способность человека-оператора выявлять и исправлять ошибки.

Когда в высокоавтоматизированных системах происходят аварии, обычно человек становится главным виновником произошедшего. Причиной многих катастроф чаще всего объявляется «человеческий фактор» и недостатки конструкции сводятся к минимуму. Исследования показывают, что когда система выходит из строя (причем неважно, насколько совершенна система, ведь рано или поздно она выйдет из строя), люди, взаимодействующие с этой системой, находятся в худшем положении, чем если бы они никогда не использовали ее [1].

Человеческий фактор – главная причина многих катастроф не только в авиации, но и во многих других ситуациях. По некоторым оценкам, до 90% автомобильных аварий, по крайней мере частично, происходят по вине человека. На сегодняшний день в беспилотных автомобилях виновным признается водитель-испытатель, так как именно он не среагировал достаточно быстро. Но действительно ли виноват человек, когда он сталкивается со сложной и непредвиденной ситуацией, которую не предусмотрели разработчики системы?

«Человеческий фактор» – удобное объяснение, которое защищает производителей автоматизированных систем. Но если внимательнее проанализировать результаты расследования авиакатастрофы, то вырисовывается более сложная картина. Чаще всего истинной причиной является неправильное взаимодействие человека и автоматики. Иногда подобные ошибки отражают другие проблемы: когда вводится новая система, предусматривающая взаимодействие человека и автоматики, людям нужно изучать новые правила эксплуатации и накапливать опыт, чтобы справиться со своими новыми обязанностям. Но зачастую поломка может указывать на то, что система была плохо спроектирована [2].

Очевидно, что мы хотим создать автоматизированные системы, которые будут правильно функционировать, а весь смысл их создания заключается в том, чтобы они могли выполнять задачи, полученные от человека-оператора. Но это означает и то, что человек-оператор не будет тратить много времени на управление системой или на взаимодействие с автоматикой. Оператор будет вмешиваться только тогда, когда его вызовут, чтобы он устранил какой-то сбой.

По иронии судьбы человек-оператор нужен только в стрессовых ситуациях, а в стрессовых ситуациях, когда у человека нет права на ошибку, он ее совершает. Эта проблема присуща процессу автоматизации. Похожая поучительная история была и во время Второй мировой войны.

Когда конструкторы усовершенствовали кабину самолета «Spitfire», во время тренировок все выглядело хорошо. Но в стрессовых условиях воздушных боев пилоты, как правило, случайно катапультировались. Причина этой проблемы заключалась в том, что конструкторы переключили управление спусковым крючком и катапультирующим устройством, и в условиях стресса пилоты вернулись к своим старым, натренированным до уровня инстинкта реакциям.

Человеческая сущность такова, что в стрессовых ситуациях наше восприятие ситуации сужается, наша способность сознательно действовать нарушается, и наши действия отличаются от тех, которые мы обычно совершаем. В то же время автоматика, с которой вы работаете, точно также пытается отреагировать на событие, с которым не сталкивалась ранее.

Это похоже на то, как если бы вы в первый раз садились в арендованную машину и при этом бы опаздывали. Вы заводили машину, регулировали сиденья и управляли автомобилем много раз. Но только не в этой машине. А так как управление немного отличается, то вы с трудом ориентируетесь даже при привычных маневрах (например, выезд из гаража или парковка), что только повышает уровень стресса.

С автономными системами случается такая же проблема. В целом, система та же, но детали изменились. Это ставит оператора в наихудшее положение для принятия быстрых решений и точных действий. Проблема усугубляется тем, что автоматизация часто скрывает поведение системы. Это делается специально, чтобы сделать взаимодействие со сложной автоматикой более простым.

Если провести аналогию с арендованным автомобилем, то вы можете отрегулировать сиденье и зеркала, найти выключатель фар и стеклоочистителей и отправиться в путь. Но при автономном управлении информация на дисплее будет минимальна и у вас не будет никакого физического представления о том, как работает что-либо. Вам нужно будет ознакомиться с этим или научиться этому на практике.

В то время, как понимание пользователями режимов автоматизации и принципа их работы улучшается по мере их использования, режимы, в которых система работает в кризисной ситуации, из-за своей природы реже переживаются пользователями, поэтому остаются неизвестными до момента их возникновения.

Эта проблема актуальна практически для всех систем с высоким уровнем автоматизации.

Таким образом, мы можем сделать вывод, что человек может терять бдительность из-за автоматики, которая функционирует настолько хорошо, что мы начинаем доверять ей. Но в то же время возникает противоречие: мы можем быстро прийти к тому, что будем чрезмерно рассчитывать на автоматику, хотя в то же время иногда мы можем не доверять ей. В лабораторных экспериментах многие люди продолжали полагаться на автоматизированную систему даже после того, как она вышла из строя, потому что у них выработалась слепая зависимость от нее. Даже когда мы осознаем риски, мы все равно можем потерять бдительность и пытаться найти причины, из-за которых система может отказать [3].

Так как сбои в автоматике происходят нечасто, люди редко могут вовремя обнаружить их. Данное явление, известное как «Декремент бдительности», наблюдалось во многих задачах, связанных с обнаружением сбоев, потому что из-за однообразия и монотонности внимание «притупляется». Декремент бдительности сохраняется независимо от того, насколько хорошо пользователь знаком с системой.

При проектировании систем, которые требуют минимального участия человека-оператора или требуют многократного повторения монотонных действий от него, необходимо учитывать явления, описанные выше. Таким образом, это может помочь снизить вероятность того, что человек-оператор примет неверное решение при возникновении какой-либо непредвиденной аварийной ситуации.

Текст статьи
  1. Дастин, Э. Тестирование программного обеспечения. Внедрение, управление и автоматизация / Э. Дастин, Д. Рэшка, Д. Пол; Пер. с англ. М. Павлов. – М.: Лори, 2017. – 567 c.
  2. Латышенко, К.П. Автоматизация измерений, испытаний и контроля / К.П. Латышенко. – М.: МГУИЭ, 2016. – 312 c.
  3. Майоров, А.В. Безопасность функционирования автоматизированных объектов / А.В. Майоров, Г.Н. Москатов, Г.П. Шибанов. - М.: Машиностроение, 2014. - 264 c.

 

Список литературы
Ведется прием статей
Прием материалов
c 01 октября по 07 октября
Осталось 5 дней до окончания
Публикация электронной версии статьи происходит сразу после оплаты
Справка о публикации
сразу после оплаты
Размещение электронной версии журнала
11 октября
Загрузка в eLibrary
11 октября
Рассылка печатных экземпляров
21 октября