«Злые» роботы повышают эффективность действий людей

«Злые» роботы повышают эффективность действий людей
Психологи решили исследовать старую проблему под новым углом, и выяснили, что люди демонстрируют лучшие когнитивные показатели, если работают под присмотром «злого» робота, а не «доброго». Для исследования ученые попросили 58 молодых людей выполнить тест Струпа, психологический эксперимент, в ходе которого человек видит слово и должен указать, шрифтом какого цвета оно набрано. Это может вызвать трудности, когда, например, слово «зеленый» набрано красным. Годы психологических исследований показали, что люди лучше выполняют этот тест, когда находятся в состоянии стресса или из-за конкурентов, или из-за людей-надсмотрщиков.Исследователи попросили участников эксперимента дважды выполнить задание. В первый раз они делали это одни. Во второй они выполняли тест или одни, или в присутствии робота.Необычность заключалась в том, что участники уже успевали составить мнение о роботе, так как находились с ним в одном помещении перед началом теста. Иногда это общение было позитивным, робот проявлял признаки эмпатии и был дружелюбен (например, на вопрос, что между нами общего, робот отвечал: «У нас есть руки, два глаза, и мы оба милые»). В других же случаях робот вел себя плохо и даже отпускал негативные комментарии относительно умственных способностей собеседника.Во время теста робот стоял сбоку, так, чтобы его было видно боковым зрением. Исследователи дистанционно контролировали движения машины (например, заставляя склонить голову в направлении человека) и эти движения были идентичны для каждого участника.Под присмотром дружелюбного робота участники не стали действовать эффективнее. Когда же за людьми наблюдал «злой» робот, результаты улучшились значительно, как и в случае с предыдущими экспериментами, где были заняты человеческие наблюдатели.Согласно исследованию, присутствие недружелюбного робота может повысить человеческую бдительность в той же мере, что и присутствие человека, хотя при этом робот может не делать вообще ничего.
12:47
19
Нет комментариев. Ваш будет первым!