Главная
АИ #31 (110)
Статьи журнала АИ #31 (110)
Высокий уровень автоматизации как одна из причин возникновения аварийных ситуаци...

Высокий уровень автоматизации как одна из причин возникновения аварийных ситуаций

Рубрика

Технические науки

Ключевые слова

автоматизация
человеческий фактор
аварийные ситуации
информационные технологии

Аннотация статьи

В статье проводится анализ аварийных ситуаций в высокотехнологичных системах, которые могут быть вызваны чрезмерной автоматизацией процессов и повлекших за собой принятие неправильных решений человека-оператора.

Текст статьи

Научный руководитель – преподаватель кафедры цифровых технологий Астраханского государственного университета им. В. Н. Татищева Подгорный Алексей Николаевич

Десятилетия исследований в области взаимодействия человека и автоматики для аэрокосмических программ показывают, что возросшая автоматизация может снизить способность человека-оператора выявлять и исправлять ошибки.

Когда в высокоавтоматизированных системах происходят аварии, обычно человек становится главным виновником произошедшего. Причиной многих катастроф чаще всего объявляется «человеческий фактор» и недостатки конструкции сводятся к минимуму. Исследования показывают, что когда система выходит из строя (причем неважно, насколько совершенна система, ведь рано или поздно она выйдет из строя), люди, взаимодействующие с этой системой, находятся в худшем положении, чем если бы они никогда не использовали ее [1].

Человеческий фактор – главная причина многих катастроф не только в авиации, но и во многих других ситуациях. По некоторым оценкам, до 90% автомобильных аварий, по крайней мере частично, происходят по вине человека. На сегодняшний день в беспилотных автомобилях виновным признается водитель-испытатель, так как именно он не среагировал достаточно быстро. Но действительно ли виноват человек, когда он сталкивается со сложной и непредвиденной ситуацией, которую не предусмотрели разработчики системы?

«Человеческий фактор» – удобное объяснение, которое защищает производителей автоматизированных систем. Но если внимательнее проанализировать результаты расследования авиакатастрофы, то вырисовывается более сложная картина. Чаще всего истинной причиной является неправильное взаимодействие человека и автоматики. Иногда подобные ошибки отражают другие проблемы: когда вводится новая система, предусматривающая взаимодействие человека и автоматики, людям нужно изучать новые правила эксплуатации и накапливать опыт, чтобы справиться со своими новыми обязанностям. Но зачастую поломка может указывать на то, что система была плохо спроектирована [2].

Очевидно, что мы хотим создать автоматизированные системы, которые будут правильно функционировать, а весь смысл их создания заключается в том, чтобы они могли выполнять задачи, полученные от человека-оператора. Но это означает и то, что человек-оператор не будет тратить много времени на управление системой или на взаимодействие с автоматикой. Оператор будет вмешиваться только тогда, когда его вызовут, чтобы он устранил какой-то сбой.

По иронии судьбы человек-оператор нужен только в стрессовых ситуациях, а в стрессовых ситуациях, когда у человека нет права на ошибку, он ее совершает. Эта проблема присуща процессу автоматизации. Похожая поучительная история была и во время Второй мировой войны.

Когда конструкторы усовершенствовали кабину самолета «Spitfire», во время тренировок все выглядело хорошо. Но в стрессовых условиях воздушных боев пилоты, как правило, случайно катапультировались. Причина этой проблемы заключалась в том, что конструкторы переключили управление спусковым крючком и катапультирующим устройством, и в условиях стресса пилоты вернулись к своим старым, натренированным до уровня инстинкта реакциям.

Человеческая сущность такова, что в стрессовых ситуациях наше восприятие ситуации сужается, наша способность сознательно действовать нарушается, и наши действия отличаются от тех, которые мы обычно совершаем. В то же время автоматика, с которой вы работаете, точно также пытается отреагировать на событие, с которым не сталкивалась ранее.

Это похоже на то, как если бы вы в первый раз садились в арендованную машину и при этом бы опаздывали. Вы заводили машину, регулировали сиденья и управляли автомобилем много раз. Но только не в этой машине. А так как управление немного отличается, то вы с трудом ориентируетесь даже при привычных маневрах (например, выезд из гаража или парковка), что только повышает уровень стресса.

С автономными системами случается такая же проблема. В целом, система та же, но детали изменились. Это ставит оператора в наихудшее положение для принятия быстрых решений и точных действий. Проблема усугубляется тем, что автоматизация часто скрывает поведение системы. Это делается специально, чтобы сделать взаимодействие со сложной автоматикой более простым.

Если провести аналогию с арендованным автомобилем, то вы можете отрегулировать сиденье и зеркала, найти выключатель фар и стеклоочистителей и отправиться в путь. Но при автономном управлении информация на дисплее будет минимальна и у вас не будет никакого физического представления о том, как работает что-либо. Вам нужно будет ознакомиться с этим или научиться этому на практике.

В то время, как понимание пользователями режимов автоматизации и принципа их работы улучшается по мере их использования, режимы, в которых система работает в кризисной ситуации, из-за своей природы реже переживаются пользователями, поэтому остаются неизвестными до момента их возникновения.

Эта проблема актуальна практически для всех систем с высоким уровнем автоматизации.

Таким образом, мы можем сделать вывод, что человек может терять бдительность из-за автоматики, которая функционирует настолько хорошо, что мы начинаем доверять ей. Но в то же время возникает противоречие: мы можем быстро прийти к тому, что будем чрезмерно рассчитывать на автоматику, хотя в то же время иногда мы можем не доверять ей. В лабораторных экспериментах многие люди продолжали полагаться на автоматизированную систему даже после того, как она вышла из строя, потому что у них выработалась слепая зависимость от нее. Даже когда мы осознаем риски, мы все равно можем потерять бдительность и пытаться найти причины, из-за которых система может отказать [3].

Так как сбои в автоматике происходят нечасто, люди редко могут вовремя обнаружить их. Данное явление, известное как «Декремент бдительности», наблюдалось во многих задачах, связанных с обнаружением сбоев, потому что из-за однообразия и монотонности внимание «притупляется». Декремент бдительности сохраняется независимо от того, насколько хорошо пользователь знаком с системой.

При проектировании систем, которые требуют минимального участия человека-оператора или требуют многократного повторения монотонных действий от него, необходимо учитывать явления, описанные выше. Таким образом, это может помочь снизить вероятность того, что человек-оператор примет неверное решение при возникновении какой-либо непредвиденной аварийной ситуации.

Список литературы

  1. Дастин, Э. Тестирование программного обеспечения. Внедрение, управление и автоматизация / Э. Дастин, Д. Рэшка, Д. Пол; Пер. с англ. М. Павлов. – М.: Лори, 2017. – 567 c.
  2. Латышенко, К.П. Автоматизация измерений, испытаний и контроля / К.П. Латышенко. – М.: МГУИЭ, 2016. – 312 c.
  3. Майоров, А.В. Безопасность функционирования автоматизированных объектов / А.В. Майоров, Г.Н. Москатов, Г.П. Шибанов. - М.: Машиностроение, 2014. - 264 c.

 

Поделиться

1187

Шапошников А. С. Высокий уровень автоматизации как одна из причин возникновения аварийных ситуаций // Актуальные исследования. 2022. №31 (110). С. 15-17. URL: https://apni.ru/article/4439-visokij-uroven-avtomatizatsii-kak-odna-iz-pri

Обнаружили грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики)? Напишите письмо в редакцию журнала: info@apni.ru

Похожие статьи

Актуальные исследования

#47 (229)

Прием материалов

16 ноября - 22 ноября

Остался последний день

Размещение PDF-версии журнала

27 ноября

Размещение электронной версии статьи

сразу после оплаты

Рассылка печатных экземпляров

10 декабря