Ошибка команды - Team error
Ошибка группы относится к ошибкам, которые возникают в условиях, когда несколько человек работают вместе. Зависимость увеличивает вероятность ошибки человека из-за взаимодействия с другими, казалось бы, независимыми механизмами защиты. Привлечение нескольких человек к выполнению задачи не гарантирует, что задача будет выполнена правильно. Одна из потенциальных зависимостей - это командная ошибка, ошибка одного или нескольких участников, которая позволяет другим отдельным членам той же группы совершить ошибку.
Распространенные типы командных ошибок
- Эффект ореола - Непосредственное несоответствие суждений или когнитивная предвзятость, когда человек, проводящий первоначальную оценку, будет считать достоверность неоднозначной информации, основанной на конкретной информации: слепое доверие к компетентности конкретных людей на основании их опыта или образования.
- Пилот / Второй пилот - Нежелание подчиненного оспаривать мнение, решения или действия начальника.
- Свободная езда - Склонность «плыть по следам» без активного изучения намерений и действий другого работника.
- Групповое мышление - Когда стремление к гармонии или соответствию в группе приводит к дисфункциональному исходу. В то время как сплоченность, лояльность и консенсус являются достойными качествами, групповое мышление может возникнуть, когда несогласные мнения не поощряются.
- Распространение ответственности – Социопсихологический явление, при котором каждый человек в группе с меньшей вероятностью берет на себя ответственность, когда присутствуют другие. Это часто приводит к сдвигу в сторону большего риска при принятии решений и разрешении проблем, если два или более человека соглашаются вместе, что они знают лучший способ что-то сделать.
Примеры
Ошибка пилота / второго пилота
Рейс 90 авиакомпании Air Florida в национальном аэропорту Вашингтона, январь 1982 г.[1] не был должным образом разморожен. Во время подготовки к взлету на передних кромках крыльев скопился снег. Во время процедуры контрольного списка после запуска второй капитан назвал «антиобледенительную систему двигателя». Капитан сообщил, что «антиобледенительная система двигателя выключена», но затем не смог его включить. Система должна была быть включена. Следовательно, лед мешал системе соотношения давлений двигателя (EPR), первичной индикации тяги двигателя. Второй пилот обращал внимание капитана на аномальные показания двигателя по крайней мере пять раз в последние моменты перед вылетом самолета за пределы взлетно-посадочной полосы, но он не возражал против решения капитана продолжить взлет. Учитывая показания двигателей, он должен был настоять на прерывании взлета. Самолет разбился, в результате чего погибли 74 из 79 человек на борту.
Ошибка диффузии ответственности
В США Департамент энергетики производство в конце 1980-х,[1] начальник смены эксплуатирующей подрядной организации вместе с небольшой группой начальников смен спланировали и осуществили замену вышедшего из строя насоса. Следующие работы системы контроля не увенчались успехом. Группа надзора рассудила, что дальнейшее использование этой системы не принесет успеха. Из-за графика и разочарования мужчины взяли дело в свои руки и сделали работу сами. Команда нарушила процедуры, регулирующие систему контроля работы, проверки качества, аттестацию работников и правила профсоюзов, регулирующие рабочие задания и обязанности. В противном случае ни один наемный руководитель не стал бы работать профсоюзным механиком. В групповой ситуации правила были сброшены.
Стратегии, как правило, уменьшают количество ошибок команды
Следующие стратегии были предложены DOE Human Performance Improvement Handbook.[1]
- Сохраняйте свободу мысли от других членов команды.
- Бросьте вызов действиям и решениям других, чтобы раскрыть основные предположения.
- Обучите людей ошибкам команды, их причинам и способам вмешательства.
- Примите участие в формальном тренинге по развитию команды.
- Практикуйте вопросительное отношение / ситуационную осведомленность на работе и во время обучения.
- Назначьте адвоката дьявола в ситуациях, когда нужно решать проблемы.
- Назовите «тайм-ауты», чтобы помочь команде достичь общего понимания состояния завода или продукта.
- Выполните тщательный и независимый предварительный просмотр задачи перед инструктажем перед началом работы.
Смотрите также
- Человеческая ошибка
- Человеческая надежность
- Скрытая человеческая ошибка
- Эффект ореола
- Ошибка пилота
- Групповое мышление
- Распространение ответственности
- Каскадный отказ
Рекомендации
- ^ а б c DOE-HDBK-1028-2009, Руководство по повышению эффективности человека. https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1
внешняя ссылка
- DOE-HDBK-1028-2009, Руководство по повышению производительности труда человека
- Распространение ответственности в кооперативных коллективах; Университет Содружества Вирджинии Донельсон Р. Форсайт; Линда Э. Зизневски; Академия береговой охраны США, Шерил А. Джамманко.
- Коллективный провал: возникновение, последствия и управление ошибками в командах, Корнельский университет, Брэдфорд С. Белл; Стив В. Дж. Козловски