Требуется обновление браузера.

Проблемы взаимодействия и распределения ролей человека и машины в динамических системах


Просмотров: 2163
2011 год
Е.А. Бурлак, А.М. Набатчиков. Проблемы взаимодействия и распределения ролей человека и машины в динамических системах // Искусственный интеллект: философия, методология, инновации / Материалы Пятой Всероссийской конференции студентов, аспирантов и молодых учёных, г. Москва, МГТУ МИРЭА, 9-11 ноября 2011 г. Под ред. Д.И. Дубровского и Е.Д. Никитиной — М.: «Радио и Связь», 2011. – С. 244-247.
Мероприятие: Конференция "Искусственный интеллект: философия, методология, инновации." (ИИ ФМИ V)
УДК: 331.101.1:007.51

Сборник трудов на сайте конференции
В современной цивилизации проблема организации человеко-машинного взаимодействия приобретает универсальный характер. В настоящей статье данная проблема рассматривается в двух аспектах: первый — в каких приложениях и в какой степени техника может взять на себя функции человека, второй — какие трудности испытывает оператор в процессе работы в современной динамической системе управления.

Баланс между функциями человека и машины определяется списком преимуществ каждой из сторон. За основу, после внесения корректив, учитывающих современный уровень развития науки и техники, может быть взята классификация З. Гератеволя [1]. В качестве преимуществ машины выделяются следующие: сила и скорость, механичность действия (точность, ритмичность, отсутствие скуки от однообразия), автоматические вычисления, память (программируемость, копирование, очистка, скорость работы и объём), комплексная работа (распараллеливание задач), сопротивляемость и чувствительность. Степень проявления того или иного качества зависит от специализации и реализации технического средства.

Преимущества человека: способность к абстрагированию (трудность технической реализации данной способности состоит в сложности формализации процесса выбора и базировании его на большом объёме разнообразных знаний), приспосабливаемость (человек — «универсальная машина»), способность к суждению и избирательная память, речь, фантазия, воображение, значительно выходящее за пределы опыта, иррационализм и личность (самопожертвование, коллективизм, мужество).

Данный список преимуществ человека, рассматриваемого в системе «человек-машина», безусловно, может быть дополнен и детализирован, но в рамках данной статьи остановимся подробнее на таком свойстве человека как мышление. С одной стороны, ни одна из программ на данный момент не прошла тест Лёбнера    [?]
Речь о премии Лёбнера (добавлено после публикации)
, а потому можно отнестись скептически как к аргументации в пользу искусственного интеллекта (ИИ) в [2], так и к самом тесту Тьюринга (не лишённому антропоморфизма и бихевиористичности), с другой — существуют практические примеры (беспилотный военный автомобиль «Guardium», соревнования роботов, проводимые агентством DARPA), принуждающие посмотреть на ситуацию не так однозначно.

Другая проблема, связанная с ИИ, обсуждавшаяся в разное время Н. Винером [3, 4], А. Азимовым [5], В. Винджем [6] и др. — возможная опасность переложения ответственности за принятие решения на машину и неоднозначность («технологическая сингулярность») дальнейшего развития отношения «человек-машина». С этой точки зрения, становится актуальной «задача осмысления антропологических и социальных последствий искусственного интеллекта, анализ новых возникающих экзистенциальных противоречий, новых рисков человеческого существования» [7].

Вместе с тем, независимо от степени автоматизации, человек остается главным звеном системы «человек-машина». Именно он ставит цели перед системой, планирует, направляет и контролирует весь процесс ее функционирования. Так, примерно 70% всех авиакатастроф, изученных за последние годы в авиации, характеризовались как «ошибки пилота» [8, 9, 10    [?]
Смотри ещё: ежегодный отчёт Boeing "Statistical Summary of Commercial Jet Airplane Accidents Worldwide Operations 1959 - хххх" (добавлено после публикации)
, 11]. Эта широкая категория ошибок включает все — от ненадежного ручного управления до неадекватного планирования полета. По мере совершенствования системы число отказов, связанных с надежностью оборудования, уменьшается. Однако из-за завышенных требований к человеку и увеличенной информационной загрузки число отказов остается значительным. Н.Винер писал: «В прошлом неполная и ошибочная оценка человеческих намерений была относительно безвредной только потому, что ей сопутствовали технические ограничения, затруднявшие точную количественную оценку этих намерений. Это только один из многих примеров того, как бессилие человека ограждало нас до сих пор от разрушительного натиска человеческого безрассудства»[3].

Ошибка оператора — это любое конкретное действие человека в процессе его деятельности, которое выходит за некоторые допустимые границы, т.е. превышает допуск, определенный режимами работы системы. Большинство ошибок — это непреднамеренные действия, неадекватные данной ситуации. Существуют также умышленные ошибки, в частности, это относится к тем случаям, когда оператор выполняет неверные действия, расценивая их как верные или наиболее подходящие. Даже в системах, где большая часть операций, ранее выполняемых человеком, была заменена путем автоматизации некоторых операций и упрощения функций человекаоператора, еще рано говорить о полном исключении человека из контура управления.

Таким образом, с увеличением роли оператора увеличивается и его ответственность. Ошибки человека в сложных технических системах (самолеты, АЭС) могут не только привести к человеческим жертвам, но и повлечь за собой техногенные катастрофы.

«Отдайте же человеку — человеческое, а вычислительной машине — машинное. <…> В наше время мы остро нуждаемся в объективном изучении систем, включающих и биологические, и механические элементы. К оценке возможностей этих систем нельзя подходить предвзято, то есть с позиции механистического или антимеханистического толка» [3].

Библиографический список


  • Гератеволь З. Психология человека в самолёте. — М.: издательство иностранной литературы, 1956. — 356 с.
  • Тьюринг А.М. Может ли машина мыслить? // Может ли машина мыслить?: Сборник. — М.: Государственное издательство физикоматематической литературы, 1960. — С. 19–58.
  • Винер Н. Творец и робот — М.: Прогресс, 1966. — 104 с.
  • Винер Н. интервью в разделе “Наши интервью” // Природа. — 1960. — №8. — С. 68–69.
  • Азимов А. Совершенная машина // Человеческие способности машин: сборник статей из специального номера английского научнопопулярного журнала Science Journal, oct. 1968. — М.: Изд. «Советское радио», 1971. — С. 187–198.
  • КОМПЬЮТЕРРАONLINE [Электронный ресурс]. — Электрон.дан. — URL:http://www.computerra.ru/think/35636/ (дата обращения 04.06.2011)
  • Никитина Е.А. Познание. Сознание. Бессознательное. — М.: Книжный дом «ЛИБРКОМ», 2011. — 224 с.
  • Group of Authors. Aviation Safety and Pilot Control: Understanding and Preventing Unfavorable PilotVehicle Interactions, Authors: Committee on the Effects of AircraftPilot Coupling on Flight Safety, National Research Council National Academy Press, 1997.
  • McRuer, Duane, «PilotInduced Oscillations and Human Dynamic Behavior,» NASA CR 4683, National Aeronautics and Space Administration, 1995.
  • Статистика авиационных катастроф [Электронный ресурс]. — Электрон.дан. — URL:http://www.planecrashinfo.com/cause.htm (дата обращения 18.04.2011)
  • Себряков Г.Г. Проблемы проектирования полуавтоматических систем наведения летательных аппаратов // Вестник компьютерных и информационных технологий. — М.: Машиностроение, 2007. — №10. — С. 2–7.

Комментарии

Инкогнито
  Загружаем captcha