Систематическая ошибка подтверждения

Ошибочность рассуждений, вызванная эффектом подтверждения (Confirmation bias, Систематическая ошибка согласованности) — тенденция проверять гипотезы исключительно путём прямого тестирования, вместо того, чтобы тестировать возможные альтернативные гипотезы

«Не предлагайте решения, до тех пор, пока проблема не будет исследована
так тщательно, как это только возможно»

В 1960 году Питер Уосон (Peter Wason) провел ныне классический эксперимент, известный как задача ‘2-4-6’ [Wason, 1960.] Испытуемые должны были определить правило, известное экспериментатору, но не самому испытуемому — так, как оно бывает при научном исследовании. Испытуемые писали три числа, таких как ‘2-4-6′ или ’10-12-14’ на карточках, и экспериментатор говорил, соответствуют ли данные три числа правилу или нет. Изначально субъектам была выдана тройка чисел 2-4-6 и сказано, что она соответствует правилу. Испытуемые могли продолжать испытывать тройки до тех пор, пока они не чувствовали себя уверенными, что знают правило экспериментатора, и тогда испытуемым объявляли правило.
Хотя участники обычно выражали высокую уверенность в своих догадках, только 21% из них в этом эксперименте правильно угадали правило, и при повторениях эксперимента уровень успеха обычно составлял 20%. Вопреки совету Карла Поппера, испытуемые в эксперименте Уосона пытались подтвердить свои гипотезы, а не опровергнуть. Таким образом, те, кто сформулировали гипотезу «Числа увеличиваются каждый раз на два», проверяли тройки 8-10-12 или 20-22-24, слышали, что они подходят, и уверенно объявляли правило. Во всех случаях подлинное правило было одно и тоже: три номера должны следовать один за другим по возрастающей. В некоторых случаях испытуемые выдумывали, «тестировали» и объявляли правила, гораздо более сложные, чем действительное.

Задача Уосона «2-4-6» является «прохладной» формой интеллектуальной ошибки, связанной с подтверждением: люди предпочитают подтверждающие, а не опровергающие свидетельства. «Прохладный» означает, что задача «2-4-6» является эмоционально нейтральным случаем интеллектуальной ошибки подтверждения: вывод подтверждается логикой, а не эмоциями. «Горячий» случай имеет место, когда вера эмоционально заряжена, например, в случае политических рассуждений. Неудивительно, что «горячая» ошибочность сильнее — больше по размаху и более устойчивая к изменениям. Активная, полная усилий склонность к подтверждению обычно называется мотивированным мышлением (motivated cognition) (обычно известным как «рационализация»). Как отмечает Бреннер [Brenner, 2002] в «Заметках к теории одобрения»:

«Очевидно, что во многих обстоятельствах желание уверенности в гипотезе может заметно повлиять на воспринимаемую степень ее подтверждения… Канда [Kunda, 1990] обсуждает, как люди, нацеленные на то, чтобы достичь определенных выводов, пытаются сконструировать (в ошибочной манере) убедительный случай для своей любимой гипотезы, который мог бы убедить беспристрастную аудиторию. Джилович [Gilovich, 2000] предполагает, что выводы, в которые человек не хочет верить, рассматриваются гораздо требовательнее, чем те, в которые он хочет верить. В первом случае человек требует, чтобы свидетельство с необходимостью вело к данному выводу, а во втором — спрашивает, позволяет ли некоторое свидетельство придти к данному выводу».

Когда люди подвергают те свидетельства, которые противоречат их точке зрения, более пристрастному анализу, чем те, которые ее подтверждают, это называется мотивированный скептицизм или интеллектуальная ошибка несогласия (disconfirmation bias). Ошибка несогласия особенно деструктивна по двум причинам: во-первых, два подверженных этой ошибке спорщика, рассматривая один и тот же поток свидетельств, могут изменить свою веру в противоположных направлениях — обе стороны выборочно принимают только привлекательные для них свидетельства. Накопление большего числа свидетельств не приведет этих спорщиков к согласию. Во-вторых, люди, которые являются более опытными скептиками: которые знают больший набор логических нестыковок, но применяют этот навык избирательно, могут изменять свою точку зрения гораздо медленнее, чем неопытные спорщики
Тэйбер и Лодж [Taber and Lodge, 2000] исследовали изначальное отношение и изменение отношения у студентов, под воздействием прочтения политической литературы за и против контроля и выдачи разрешений на оружие. Это исследование проверило шесть следующих гипотез в двух экспериментах:

* Эффект предшествующего отношения. (Prior attitude effect.) Испытуемые, имевшие изначальную точку зрения на проблему — даже когда их поощряли в том, чтобы они были объективными — находили поддерживающие аргументы более охотно, чем опровергающие.

* Систематическая ошибка опровержения. Испытуемые тратили больше времени и умственных усилий, стараясь отклонить опровергающие аргументы, чем поддерживающие аргументы.

* Систематическая ошибка подтверждения. Испытуемые, свободные выбирать источники информации, скорее искали подтверждающие, чем опровергающие источники.

* Поляризация отношения. Предъявление субъектам очевидно уравновешенного набора аргументов за и против приводило к увеличению изначальной поляризации их мнений.

* Эффект силы мнения (Attitude strength effect). Испытуемые, имеющие более ярко выраженное мнение, были более подвержены вышеназванным склонностям к ошибке.

* Эффект усложнения. (Sophistication effect) Более искушенные в политике испытуемые, по причине обладания более тяжелым вооружением для опровержения противных фактов и доводов, были более подвержены вышеприведенным систематическим ошибкам.

Забавно, что эксперименты Тэйбера и Лоджа (Taber and Lodge) подтвердили все шесть изначальных гипотез авторов. Вы можете сказать: «Вероятно, эти эксперименты только отражают верования, на которые опирались их авторы, и это как раз пример систематической ошибки подтверждения». Если так, то, сделав вас более опытным спорщиком, а именно, научив вас еще одной систематической ошибке, в которой можно обвинить людей, я, в действительности, навредил вам: я ослабил вашу реакцию на новую информацию. Я дал вам еще один шанс всякий раз терпеть неудачу, когда вы сталкиваетесь с возможностью изменить свой стиль мышления.

Модели рассуждения и систематические ошибки широко распространены в человеческих размышлениях. Их знание позволяет нам замечать большое разнообразие логических ошибок, которые, в противном случае, были бы недоступны для нашего наблюдения. Но, как и любая способность обнаруживать ошибки в рассуждениях, это знание должно применяться обоюдосторонне: как к нашим собственным идеям, так и к идеям других; к идеям, которые нам нравятся, и которые нам не нравятся. Знание человеческой склонности ошибаться — это опасное знание, если вы напоминаете себе об ошибочности тех, кто не согласен с вами. Если я избирателен в отношении тех аргументов, которые я исследую на предмет ошибок, или даже того, насколько глубоко я исследую эти ошибки, тогда каждый новый закон логики, каждая новая логическая несообразность, которую я научаюсь обнаруживать, делает меня глупее. Ум, чтобы быть полезным, должен быть использован не для того, чтобы дурачить самого себя.

Нельзя рационализировать то, что не рационально с самого начала — как если ложь назвать «правдизацией». Нельзя сделать утверждение более истинным посредством взяточничества, лести или даже страстной аргументации — можно заставить больше людей верить в утверждение, но нельзя сделать его вернее. Для того, чтобы сделать наши верования более истинными, мы должны изменить сами эти верования. Не каждое изменение — это улучшение, но каждое улучшение — это изменение по определению.

Наши верования гораздо более подвижны, чем мы привыкли думать. Гриффин и Тверский [Griffin and Tversky, 1992] осторожно опросили 24-х своих коллег на тему выбора между двумя предложениями по работе и попросили их оценить вероятность того, что они его выберут, для каждого из предложений. Средняя вероятность выбора, высказанная в отношении более привлекательного предложения, составила умеренные 66%. Но только один из 24 опрошенных выбрал в конечном счетt вариант, которому он приписал в начале более низкую вероятность, увеличив общую точность предсказания до 96 процентов. (Это — один из немногих известных примеров, когда имеет место не «сверх-уверенность», а «недо-уверенность».)

Мораль в том, что как только вы начинаете догадываться, каков будет ваш ответ, как только вы приписываете большую вероятность тому, что вы ответите так, а не иначе, вы, на самом деле, уже решили. И если вы будете честны с самим собой, вы должны признать, что обычно вы догадываетесь об окончательном ответе через секунды после того, как услышите вопрос. Мы меняем наши мнения гораздо реже, чем мы думаем. Насколько скоротечен этот короткий незаметный момент, когда мы даже не можем догадаться, каков будет наш ответ, малюсенькое хрупкое мгновение, которое нам отведено, чтобы на самом деле подумать — как в вопросах выбора, так и в вопросах установления фактов.

Шенкель (Shenkel) говорил: «Нет необходимости в вере, пока ситуация может быть легко рассмотрена тем или другим образом».

Норман Майер (Norman R. F. Maier): «Не предлагайте решения, до тех пор, пока проблема не будет исследована так тщательно, как это только возможно».

Робин Доуз (Robyn Dawes), комментируя Майера, писал: «Я часто предлагал это правило группам, которые я вел, в частности, когда они сталкивались с особенно трудной проблемой. Это — типичная ситуация, когда члены группы особенно склонны предлагать мгновенные решения».

В компьютерной безопасности «система, которой доверяют» (trusted system) — это та, которой вы на самом деле доверяете, а не та, которая достойна доверия. «Система, которой доверяют» — это система, которая, будучи скомпрометированной, способна вызвать ошибку. Когда вы читаете статью, утверждающую, что глобальная катастрофа невозможна, или имеет определенную годовую вероятность, или может быть преодолена с использованием определенной стратегии — вы доверяете рациональности авторов. Вы доверяете способности авторов переходить от удобных выводов к неудобным, даже в случае отсутствия сногсшибательных экспериментальных свидетельств, опровергающих любимую гипотезу. Вы доверяете авторам в том, что они не искали немного более интенсивно ошибки в тех уравнениях, которые указывали на неверный, с их точки зрения, путь, до того, как к вам попал окончательный вариант статьи.

И если власти вводят закон, по которому даже мельчайший риск существованию человечества достаточен для того, чтобы закрыть проект; или если становится нормой политики де-факто, что ни одно возможное вычисление не может перевесить груз однажды высказанного предположения, то тогда ни один ученый не рискнет больше высказывать предположения. Я не знаю, как решить эту проблему. Но я думаю, что тем, кто оценивает глобальные риски, следует иметь общие представления о человеческих моделях рассуждений и систематических ошибках при рассуждениях, и об ошибке неподтверждения в частности.

В рамках подготовки к выходу большой статьи о методах манипуляции сознанием, привожу информацию о эффекте подтверждения. Кратенько, своими словами, а подробно — под катом. Крайне рекомендую любому человеку, стремящемуся мыслить рационально и без ошибок, прочитать всю статью. Ваша адекватность в ваших руках.

Эффект этот не теоретический, мы сталкиваемся с ним каждый день, и он реально меняет жизнь 95% населения земного шара.

Представьте, что группе испытуемых предлагают найти закономерность в тройках чисел. Испытуемый может предложить свою тройку, и спросить, подходит ли она под закономерность или нет. Он может предлагать свои тройки и узнавать, подходят ли они до бесконечности. Но если он назовёт закономерность, и не угадает — то он проиграл. И для затравки предлагают тройку «2 — 4 — 6»
Допустим, наш испытуемый выдвигает версию — что закономерность — это +2. Следующее число в тройке больше предыдущего на 2.

Он хочет проверить — и спрашивает: «6-8-10 подходит?» — и получает ответ «да»
14 — 16 — 18? (14, 14+2, 14+2+2)
— Да.
— 2002, 2004, 2006?
— Да.
— 92222224, 92222226, 92222228?
— Да.

Убедившись, что его теория верна, испытуемый радостно называет её и… проигрывает.

Опыты показывают, что более умные выдвигают более сложные теории и… тоже ошибаются!!!
В чём же фокус?

Фокус в том, что закономерность, загаданная экспериментатором, настолько общая, что задумки большинства испытуемых являются её частными случаями. На самом деле, числа должны быть … расположены по возрастанию. Всего-то…

Так вот, доказано, что чем умнее человек, тем изворотливее он убеждает себя, что первая выдвинутая им теория — верна. Тем сложнее эта теория. Тем тщательнее он её проверяет. И тем больше подтверждений находит…

А в чём же засада? Почему человек редко способен найти ошибку в этом случае?

Да потому, что методика не верная. Надо не подтверждения своей теории искать, а опровержения. Например, назвать тройки «7 — 15 — 4» и «18 — 200 — 500». И уже вторая из этих попыток разрушает самую очевидную теорию про «+2». И только если опровержений нет, можно неуверенно, но всё-же обоснованно говорить о том, что найден ответ.

Кстати, эксперимент 2-4-6 — это самая простая задача, демонстрирующая особенности научного поиска.

Как это находит отражение в нашей жизни?

Да очень просто. Заметили ли вы, что люди не способны договорится по политическим взглядам и по поводу истинности той или иной религии?

Предположив однажды, что та или иная религия, политический взгляд верен, человек начинает искать этому подтверждения. И находит их!!! Вне зависимости от верности взгляда/религии. Подтверждений больше, больше — и крепнет убеждение.

Ему бы тут остановится и спросить, «а что может опровернуть мою идею?» — и осмотрется по сторонам. Возможно, опровержения его мыслям тут же найдутся рядом… Но… увы :)

Это действие могущественного эффекта 2-4-6, эффекта подтверждения!!!

Эффект подтверждения — страшное оружие в руках манипулятора. Стоит только закинуть в голову человеку правдоподобное убеждение, хоть немножко похожее на правду, и человек сам найдёт ему «доказательства», «подтверждения», и чем умнее он будет, тем упёртее он будет стоять на своём, тем более изворотливо он будет защищать свою точку зрения, даже если она… подброшенная манипулятором деза!!! Главное (хотя и не обязательно), чтобы человек считал, что он сам эту идею придумал.

А уж если за убеждением стоит не только ложно понятый опыт, но и сильные эмоции… Тут уж пиши пропало!!!

Оригинал взят у nearlylasthuman в Must read для умных. Когнитивные искажения, влияющие на оценку глобальных рисков Ч.1

Елиезер Юдковски. Перевод: А.В. Турчин

5. Ошибочность рассуждений, вызванная эффектом подтверждения

В 1960 году Питер Уосон (Peter Wason) провел ныне классический эксперимент, известный как задача ‘2-4-6’ [Wason, 1960.] Испытуемые должны были определить правило, известное экспериментатору, но не самому испытуемому — так, как оно бывает при научном исследовании. Испытуемые писали три числа, таких как ‘2-4-6′ или ’10-12-14’ на карточках, и экспериментатор говорил, соответствуют ли данные три числа правилу или нет. Изначально субъектам была выдана тройка чисел 2-4-6 и сказано, что она соответствует правилу. Испытуемые могли продолжать испытывать тройки до тех пор, пока они не чувствовали себя уверенными, что знают правило экспериментатора, и тогда испытуемым объявляли правило.
Хотя участники обычно выражали высокую уверенность в своих догадках, только 21% из них в этом эксперименте правильно угадали правило, и при повторениях эксперимента уровень успеха обычно составлял 20%. Вопреки совету Карла Поппера, испытуемые в эксперименте Уосона пытались подтвердить свои гипотезы, а не опровергнуть. Таким образом, те, кто сформулировали гипотезу «Числа увеличиваются каждый раз на два», проверяли тройки 8-10-12 или 20-22-24, слышали, что они подходят, и уверенно объявляли правило. Во всех случаях подлинное правило было одно и тоже: три номера должны следовать один за другим по возрастающей. В некоторых случаях испытуемые выдумывали, «тестировали» и объявляли правила, гораздо более сложные, чем действительное.
Задача Уосона «2-4-6» является «прохладной» формой интеллектуальной ошибки, связанной с подтверждением: люди предпочитают подтверждающие, а не опровергающие свидетельства. «Прохладный» означает, что задача «2-4-6» является эмоционально нейтральным случаем интеллектуальной ошибки подтверждения: вывод подтверждается логикой, а не эмоциями. «Горячий» случай имеет место, когда вера эмоционально заряжена, например, в случае политических рассуждений. Неудивительно, что «горячая» ошибочность сильнее — больше по размаху и более устойчивая к изменениям. Активная, полная усилий склонность к подтверждению обычно называется мотивированным мышлением (motivated cognition) (обычно известным как «рационализация»). Как отмечает Бреннер [Brenner, 2002] в «Заметках к теории одобрения»:
«Очевидно, что во многих обстоятельствах желание уверенности в гипотезе может заметно повлиять на воспринимаемую степень ее подтверждения… Канда [Kunda, 1990] обсуждает, как люди, нацеленные на то, чтобы достичь определенных выводов, пытаются сконструировать (в ошибочной манере) убедительный случай для своей любимой гипотезы, который мог бы убедить беспристрастную аудиторию. Джилович [Gilovich, 2000] предполагает, что выводы, в которые человек не хочет верить, рассматриваются гораздо требовательнее, чем те, в которые он хочет верить. В первом случае человек требует, чтобы свидетельство с необходимостью вело к данному выводу, а во втором — спрашивает, позволяет ли некоторое свидетельство придти к данному выводу».
Когда люди подвергают те свидетельства, которые противоречат их точке зрения, более пристрастному анализу, чем те, которые ее подтверждают, это называется мотивированный скептицизм или когнитивное искажение несогласия (disconfirmation bias). Ошибка несогласия особенно деструктивна по двум причинам: во-первых, два подверженных этой ошибке спорщика, рассматривая один и тот же поток свидетельств, могут изменить свою веру в противоположных направлениях — обе стороны выборочно принимают только привлекательные для них свидетельства. Накопление большего числа свидетельств не приведет этих спорщиков к согласию. Во-вторых, люди, которые являются более опытными скептиками, – то есть которые знают больший набор типичных логических нестыковок, но применяют этот навык избирательно, – склонны изменять свою точку зрения гораздо медленнее, чем неопытные спорщики.
Тэйбер и Лодж [Taber and Lodge, 2000] исследовали изначальное отношение к теме ношения огнестрельного оружия и изменение его у студентов, под воздействием прочтения политической литературы за и против контроля и выдачи разрешений на оружие. Это исследование проверило шесть следующих гипотез в двух экспериментах:
1. Эффект предшествующего отношения. Испытуемые, имевшие изначальную точку зрения на проблему — даже когда их поощряли в том, чтобы они были объективными — находили поддерживающие аргументы более охотно, чем опровергающие.
2. Систематическая ошибка опровержения. Испытуемые тратили больше времени и умственных усилий, стараясь отклонить опровергающие аргументы, чем поддерживающие аргументы.
3. Систематическая ошибка подтверждения. Испытуемые, свободные выбирать источники информации, скорее искали подтверждающие, чем опровергающие источники.
4. Поляризация отношения. Предъявление субъектам очевидно уравновешенного набора аргументов за и против приводило к увеличению изначальной поляризации их мнений.
5. Эффект силы мнения. Испытуемые, имеющие более ярко выраженное мнение, были более подвержены вышеназванным склонностям к ошибке.
6. Эффект усложнения. Более искушенные в политике испытуемые, по причине обладания более тяжелым вооружением для опровержения противных фактов и доводов, были более подвержены вышеприведенным систематическим ошибкам.
Забавно, что эксперименты Тэйбера и Лоджа (Taber and Lodge) подтвердили все шесть изначальных гипотез авторов. Вы можете сказать: «Вероятно, эти эксперименты только отражают верования, на которые опирались их авторы, и это как раз пример систематической ошибки подтверждения». Если так, то, сделав вас более опытным спорщиком, а именно, научив вас еще одной систематической ошибке, в которой можно обвинить людей, я, в действительности, навредил вам: я ослабил вашу реакцию на новую информацию. Я дал вам еще один шанс всякий раз терпеть неудачу, когда вы сталкиваетесь с возможностью изменить свой стиль мышления.
Эвристика и когнитивные искажения широко распространены в человеческих размышлениях. Знание о них позволяет нам замечать большое разнообразие логических ошибок, которые, в противном случае, были бы недоступны для нашего наблюдения. Но, как и любая способность обнаруживать ошибки в рассуждениях, это знание должно применяться обоюдосторонне: как к нашим собственным идеям, так и к идеям других; к идеям, которые нам нравятся, и которые нам не нравятся. Знание человеческой склонности ошибаться — это опасное знание, если вы напоминаете себе об ошибочности тех, кто не согласен с вами. Если я избирателен в отношении тех аргументов, которые я исследую на предмет ошибок, или даже того, насколько глубоко я исследую эти ошибки, тогда каждый новый закон логики, каждая новая логическая несообразность, которую я научаюсь обнаруживать, делает меня глупее. Ум, чтобы быть полезным, должен быть использован не для того, чтобы дурачить самого себя.
Нельзя рационализировать то, что не рационально с самого начала — как если ложь назвать «правдизацией». Нельзя сделать утверждение более истинным посредством взяточничества, лести или даже страстной аргументации — можно заставить больше людей верить в утверждение, но нельзя сделать его вернее. Для того, чтобы сделать наши верования более истинными, мы должны изменить сами эти верования. Не каждое изменение — это улучшение, но каждое улучшение — это изменение по определению.
Наши верования гораздо более подвижны, чем мы привыкли думать. Гриффин и Тверский [Griffin and Tversky, 1992] осторожно опросили 24-х своих коллег на тему выбора между двумя предложениями по работе и попросили их оценить вероятность того, что они его выберут, для каждого из предложений. Средняя вероятность выбора, высказанная в отношении более привлекательного предложения, составила умеренные 66%. Но только один из 24 опрошенных выбрал в конечном счетt вариант, которому он приписал в начале более низкую вероятность, увеличив общую точность предсказания до 96 процентов. (Это — один из немногих известных примеров, когда имеет место не «сверх-уверенность», а «недо-уверенность».)
Мораль в том, что как только вы начинаете догадываться, каков будет ваш ответ, как только вы приписываете большую вероятность тому, что вы ответите так, а не иначе, вы, на самом деле, уже решили. И если вы будете честны с самим собой, вы должны признать, что обычно вы догадываетесь об окончательном ответе через секунды после того, как услышите вопрос. Мы меняем наши мнения гораздо реже, чем мы думаем. Насколько скоротечен этот короткий незаметный момент, когда мы даже не можем догадаться, каков будет наш ответ, малюсенькое хрупкое мгновение, которое нам отведено, чтобы на самом деле подумать — как в вопросах выбора, так и в вопросах установления фактов.
Шенкель (Shenkel) говорил: «Нет необходимости в вере, пока ситуация может быть легко рассмотрена тем или другим образом».
Норман Майер (Norman R. F. Maier): «Не предлагайте решения до тех пор, пока проблема не будет исследована так тщательно, как это только возможно».
Робин Доуз (Robyn Dawes), комментируя Майера, писал: «Я часто предлагал это правило группам, которые я вел, в частности, когда они сталкивались с особенно трудной проблемой. Это – типичная ситуация, когда члены группы особенно склонны предлагать мгновенные решения».
В компьютерной безопасности «система, которой доверяют» (trusted system) — это та, которой вы на самом деле доверяете, а не та, которая достойна доверия. «Система, которой доверяют» — это система, которая, будучи скомпрометированной, способна вызвать ошибку. Когда вы читаете статью, утверждающую, что глобальная катастрофа невозможна, или имеет определенную годовую вероятность, или может быть преодолена с использованием определенной стратегии — вы доверяете рациональности авторов. Вы доверяете способности авторов переходить от удобных выводов к неудобным, даже в случае отсутствия сногсшибательных экспериментальных свидетельств, опровергающих любимую гипотезу. Вы доверяете авторам в том, что они не искали немного более интенсивно ошибки в тех уравнениях, которые указывали на неверный, с их точки зрения, путь, до того, как к вам попал окончательный вариант статьи.
И если власти вводят закон, по которому даже мельчайший риск существованию человечества достаточен для того, чтобы закрыть проект; или если становится нормой политики де-факто, что ни одно возможное вычисление не может перевесить груз однажды высказанного предположения, то тогда ни один ученый не рискнет больше высказывать предположения. Я не знаю, как решить эту проблему. Но я думаю, что тем, кто оценивает глобальные риски, следует иметь общие представления о человеческих моделях рассуждений и когнитивных искажениях, и об ошибке неподтверждения в частности.

Статья вышла в 2008 году в сборнике «Риски глобальной катастрофы» под редакцией Ника Бострома и Милана Цирковича, Оксфорд.

Благодарности автора: Я благодарю Майкла Роя Эймса (Michael Roy Ames), Ника Бострома (Nick Bostrom), Милана Чирковича (Milan Cirkovic), Оли Лэмб (Olie Lamb), Тамаса Мартинеса (Tamas Martinec), Робина Ли Пауэла (Robin Lee Powell), Кристиана Ровнера (Christian Rovner) и Майкла Уилсона (Michael Wilson) за их комментарии, предложения и критику. Нет необходимости говорить, что все оставшиеся ошибки в этой работе — мои.

Введение

При всех прочих равных, мало кто из людей хотел бы уничтожить мир. Даже безликие корпорации, лезущие не в свои дела правительства, безрассудные ученые и прочие опасные люди нуждаются в окружающем мире, чтобы достигать в нем своих целей, таких как нажива, власть, собственность или другие малоприятные вещи. Если гибель человечества будет происходить настолько медленно, что успеет произойти ужасное осознание этого процесса, то деятели, запустившие его, будут, вероятно, ошеломлены пониманием того, что они, в действительности, уничтожили мир. Поэтому я предполагаю, что, если Земля будет все-таки уничтожена, то произойдет это, вероятно, по ошибке.

Систематическое экспериментальное исследование повторения ошибок в человеческих рассуждениях и того, что эти ошибки говорят о предшествующих им ментальных процессах, изучается в когнитивной психологии в рамках исследований эвристики и предубеждений. Эти исследования привели к открытиям, очень существенным для экспертов по рискам глобальных катастроф. Допустим, вы беспокоитесь о рисках, связанных с неким взрывчатым веществом Р, способным разрушить всю планету, если оно подвергнется достаточно сильному радиосигналу. К счастью, имеется знаменитый эксперт, который открыл субстанцию Р, потратил тридцать лет, работая с ней, и знает ее лучше, чем любой другой на Земле. Вы звоните эксперту и спрашиваете, насколько сильным должен быть радиосигнал, чтобы вещество взорвалось. Эксперт отвечает, что критический порог находится, вероятно, на уровне 4000 тераватт. «Вероятно?» — Спрашиваете вы. «Можете ли вы мне сообщить интервал мощности запускающего сигнала с 98-ми процентной уверенностью?» — «Конечно, — отвечает эксперт. — Я на 99 % уверен, что критический порог больше 500 тераватт, и на 99 % уверен, что он меньше 80000 тераватт». «А как насчет 10 тераватт?» — спрашиваете вы. «Невозможно», — отвечает эксперт.

Приведенная выше методология опроса эксперта выглядит совершенно резонной, такой, какую должен использовать любой компетентный работник, сталкиваясь с подобной проблемой. И в действительности, эта методология была использована при исследовании безопасности реакторов [Rasmussen, 1975], ныне считающемся первой значительной попыткой вероятностной оценки рисков. Но исследователь моделей рассуждений и погрешностей в рассуждениях может распознать, по крайней мере, два больших недостатка в этом методе, — не просто логически слабых места, а пару обстоятельств, чрезвычайно уязвимых к человеческой ошибке.

Исследования эвристики и когнитивных искажений открыли результаты, которые могут напугать и привести в уныние неподготовленного ученого. Некоторые читатели, впервые сталкивающиеся с экспериментальными результатами, цитируемыми здесь, могут удивиться и спросить: «Это действительно экспериментальные результаты? Действительно ли люди так плохо предсказывают? Может быть, эксперименты были плохо организованы, и результаты изменятся, если совершить такие-то и такие-то манипуляции?» Не имея достаточно места для объяснений, я могу только призвать читателя проконсультироваться с основополагающей литературой. Очевидные изменения условий опытов уже применялись, и результаты от этого не становились другими.

Доступность информации

Предположим, вы возьмете случайное слово из трех или более букв из английского текста. Что более вероятно: что слово начинается с буквы R (rope), или что его третья буква R (park)? Основная идея исследований когнитивных искажений (euristic and biases program) состоит в том, что люди используют методы мышления, называемые эвристикой, которые дают хорошие приблизительные ответы в большинстве случаев, но которые также приводят к увеличению системных ошибок, называемых когнитивными искажениями (bias). Примером эвристики является суждение о частоте или вероятности события по его информационной доступности (availability), то есть по легкости, с которой примеры подобного события приходят на ум. «R» появляется в качестве третьей буквы в большем числе английских слов, чем на первом месте, но гораздо легче вспомнить слова, которые начинаются на эту букву. Таким образом, большинство респондентов предполагают, что слова, начинающиеся на букву R, встречаются чаще. [Tversky and Kahneman, 1973.]

Когнитивные искажения, основанные на эвристике доступности, влияют на оценки риска. Пионерское исследование Лихтенштейна [Lichtenstein, 1978] описывает абсолютную и относительную достоверность суждений о риске. Люди в общих чертах представляют, какие риски причиняют большее число смертей, и какие – меньшее. Однако, когда их просят посчитать риски точнее, они весьма переоценивают частоты редких причин смерти, и сильно недооценивают частоты обычных. Другие повторяющиеся ошибки, выявленные в этом исследовании, также были очевидными: аварии считались причинами такого же количества смертей, что и болезни (на самом деле болезни в 16 раз чаще становятся причинами смертей, чем аварии). Убийство неверно считалось более частой причиной смерти, чем диабет или рак желудка. В исследовании Комбса и Словица [Combs and Slovic, 1979] был проведен подсчет сообщений о смерти в двух газетах, в результате была обнаружена высокая корреляция между суждениями о достоверности и выборочностью репортажей в газетах (0,85 и 0,89).

Также люди отказываются покупать страховку от наводнений, даже если она хорошо субсидируется и стоит гораздо ниже справедливой рыночной цены. Канрейсер [Kunreuther,1993] предполагает, что слабая реакция на угрозы наводнений может происходить из неспособности индивида представить себе наводнение, которое на их глазах никогда не случалось. Жители затапливаемых равнин оказываются в плену своего опыта. По-видимому, люди не могут всерьез беспокоиться о возможности потерь и разрушений больших, чем пережитые во время последних наводнений. Бертон [Burton, 1978] сообщает, что после строительства дамб и насыпей наводнения происходят реже, что, видимо, создает фальшивое чувство безопасности, ведущее к снижению мер предосторожности. В то время как строительство дамб уменьшает частоту наводнений, ущерб от каждого наводнения все-таки происходящего настолько возрастает, что среднегодовой ущерб увеличивается.

Кажется, что люди не экстраполируют опыт пережитых малых опасностей на возможности более серьезных рисков; наоборот, прошлый опыт малых опасностей устанавливает верхнюю границу ожиданий максимально возможного риска. Общество, хорошо защищенное от малых опасностей, не будет предпринимать никаких действий по отношению к большим рискам. Например, часто ведется строительство на затапливаемых равнинах после того, как регулярные малые наводнения устранены. Общество, подверженное регулярным малым опасностям, будет считать эти малые опасности в качестве верхней границы возможных рисков (защищаясь от регулярных малых наводнений, но не от неожиданных больших).

Аналогично, риск человеческого вымирания может быть недооценен, поскольку, очевидно, человечество никогда не сталкивалось с этим событием.

Когнитивные искажения, связанные со знанием «задним числом»

Когнитивные искажения, связанные со знанием «задним числом», происходят, когда испытуемый, узнав окончательный итог событий, дает гораздо большую оценку предсказуемости именно этого итога, чем испытуемые, которые предсказывают итог без знания результата. Эта ошибка иногда называется «я-все-это-время-чувствовал-что-так-оно-и-есть».

Фишхофф и Бейт [Fischhoff и Beyth, 1975] представили студентам исторические отчеты о малоизвестных событиях, таких, как конфликт между гуркхами и англичанами в 1814 году. Пять групп студентов, получивших эту информацию, были опрошены в отношении того, как бы они оценили степень вероятности каждого из четырех исходов: победа англичан, победа гуркхов, патовая ситуация с мирным соглашением или пат без соглашения. Каждое из этих событий было описано как реальный итог ситуации одной из четырех экспериментальных групп. Пятой, контрольной группе о реальном исходе не говорили ничего. Каждая экспериментальная группа приписала сообщенному ей итогу гораздо большую вероятность, чем любая другая или контрольная группа.

Эффект знания «задним числом» важен в суде, где судья или присяжные должны определить, виновен ли обвиняемый в преступной халатности, не предвидев опасность. [Sanchiro, 2003]. В эксперименте, основанном на реальном деле, Камин и Рахлинский [Kamin and Rachlinski, 1995] попросили две группы оценить вероятность ущерба от наводнения, причиненного закрытием принадлежащего городу разводного моста. Контрольной группе сообщили только базовую информацию, бывшую известной городу, когда власти решили не нанимать мостового смотрителя. Экспериментальной группе была дана эта же информация плюс сведения о том, что наводнение действительно случилось. Инструкции устанавливают, что город проявляет халатность, если поддающаяся предвидению вероятность наводнения больше 10 процентов. 76 % опрашиваемых из контрольной группы заключили, что наводнение было настолько маловероятным, что никакие предосторожности не были нужны. 57 % экспериментальной группы заключили, что наводнение было настолько вероятно, что неспособность принять меры предосторожности была преступной халатностью. Третьей группе сообщили итог и также ясным образом инструктировали избегать оценки задним числом, что не привело ни к каким результатам: 56 % респондентов этой группы заключили, что город был преступно халатен. Отсюда видно, что судьи не могут просто инструктировать присяжных, чтобы те избежали эффекта знания задним числом: Меры против предвзятости (debiasing manipulation) не работают.

Рассматривая историю сквозь линзы нашего последующего знания, мы сильно недооцениваем затраты на предотвращения катастрофы. Так, в 1986 году космический челнок Челленджер взорвался по причине того, что кольцевой уплотнитель потерял гибкость при низкой температуре [Rogers, 1986]. Были предупреждающие сигналы о проблемах, связанных с кольцевым уплотнителем. Но предотвращение катастрофы Челленджера должно было потребовать не только внимания к проблемам с кольцевым уплотнителем, но и озабоченности каждым аналогичным предупреждающим сигналом, который бы казался столь же серьезным, как проблема уплотнителей, без преимущества последующего знания.

Черные лебеди

Талеб [Taleb, 2005] предположил, что ошибки последующего знания и доступности несут первостепенную ответственность за нашу неспособность защититься от того, что Талеб назвал Черными Лебедями. «Черные лебеди» являются особенно серьезным аспектом проблемы мощных последствий: иногда большая часть вариативности процесса происходит из исключительно редких, но исключительно масштабных событий. Представьте себе финансовый инструмент, который зарабатывает 10 долларов с 98% вероятностью, но теряет 1000 долларов с 2% вероятностью. В конечном счете, расход перевешивает доход, но инструмент выглядит как устойчиво выигрышный. Талеб (2001) приводит пример трейдера, чья стратегия работала 6 лет без единого убыточного квартала, принеся около 80 миллионов долларов — и затем он потерял 300 миллионов долларов в одной катастрофе.

Другим примером является Long-Term Capital Management, инвестиционный фонд, в состав основателей которого входили два Нобелевских лауреата по экономике. В течение Азиатского кризиса и российского дефолта 1998 года рынки вели себя совершенно беспрецедентным образом, имевшим пренебрежимо малую вероятность по исторической модели, использованной LTCM. В результате LTCM начал терять по 100 миллионов долларов в день, день за днем. За один день в 1998 году он потерял более 500 миллионов долларов [Taleb, 2005]

Основатели LTCM позже назвали рыночные условия 1998 года очень маловероятным событием с вероятным отклонением в десять сигма. Но очевидно, что это событие, раз оно случилось, не было столь невероятным. Ошибочно веря, что прошлое предсказуемо, люди пришли к выводу, что будущее тоже предсказуемо. Как пишет Фишхофф [Fischhoff, 1982]:

«Когда мы пытаемся понять события прошлого, мы косвенным образом проверяем гипотезы и правила, применяемые нами, чтобы интерпретировать и воспринимать мир вокруг нас. Если, благодаря последующему знанию, мы систематически недооцениваем сюрпризы, которые могли быть в прошлом, мы подвергаем эти гипотезы ненадлежаще слабым тестам и, вероятно, не находим никаких оснований для их изменений».

Урок истории состоит в том, что такие неприятности, как «черные лебеди», случаются. Люди удивляются катастрофам, которых они не ожидали, которые лежат за пределами известных им исторически вероятных распределений. Но почему мы бываем так ошеломлены, когда «черные лебеди» случаются? Почему LTCM занял 125 миллиардов долларов под 4,72 миллиарда долларов собственности, практически гарантируя, что любая крупная неприятность их обанкротит?

По причине ошибки из-за последующего знания, мы выучиваем очень специфические уроки. После 11 сентября американское управление авиации запретило использование ножей для разрезания бумаги на самолетах. В ретроспективе это событие выглядит слишком предсказуемым, позволяя разъяренным жертвам считать случившееся результатом халатности — такой, как неспособность разведывательных агентств различить предупреждения об активности Аль-Каиды среди тысяч других предупреждений. Мы научились не позволять захваченным самолетам летать над нашими городами. Но мы не выучили урок: «черные лебеди» случаются. Делай, что можешь, чтобы приготовиться к неожиданному».

Талеб [Taleb, 2005] пишет:

«Трудно мотивировать людей к предотвращению «черных лебедей»… Защита с трудом воспринимается, измеряется и вознаграждается; это обычно незаметный и неблагодарный труд. Представьте себе, что некая дорогостоящая мера была предпринята, чтобы предотвратить такое явление. Легко вычислить стоимость этих мер, тогда как результат трудно измерим. Как мы можем говорить об эффективности, когда есть два альтернативных варианта объяснения: или принятые меры были эффективны, или просто ничего существенного не случилось. Оценка качества работы в таких случаях не просто сложна, но искажена наблюдением «актов героизма»… В исторических книгах не пишут о героических превентивных мерах».

Ошибочное включение лишнего элемента

Линде 31 год, она незамужняя, искренняя и оптимистичная девушка. В колледже она специализировалась на философии. Как студентка, она была глубоко озабочена проблемами дискриминации и социальной справедливости, а также участвовала в антиядерных демонстрациях.

Расположите следующие утверждения в порядке уменьшения их вероятности.

  1. Линда — учитель в начальной школе
  2. Линда работает в книжном магазине и занимается йогой
  3. Линда — активистка феминистского движения
  4. Линда — социальный работник в области психиатрии
  5. Линда — член общества женщин, имеющих право голоса
  6. Линда — кассир в банке
  7. Линда — страховой агент
  8. Линда — кассир в банке и активистка феминистского движения

89 % из 88 студентов посчитали пункт 8 более вероятным, чем пункт 6 [Tversky и Kahneman, 1982]. Поскольку выбранное описание Линды похоже на описание феминистки, а не банковского кассира, п.8 в большей мере характерен для описания Линды. Однако, считая п.8 более вероятным, чем п.6, мы нарушаем закон суммирования вероятностей, который утверждает, что P(A & B) ≤ P(A). Представьте себе выборку из 1000 женщин. Наверняка в этой выборке больше женщин — банковских кассиров, чем женщин-феминисток и одновременно банковских кассиров. Может быть, ошибочное включение лишнего элемента связана с тем, что участники воспринимали экспериментальные инструкции неправильно? Например, они могли понять под «вероятностью» вероятность того, что женщина, для которой верны утверждения 6 и 8, соответствует приведенному выше описанию Линды, а не вероятность утверждений 6 и 8 в отношении Линды? Или, возможно, они интерпретировали 6 как означающее «Линда — кассир и не феминистская активистка»? И, хотя, чтобы объяснить склонность к этой логической ошибке, было предложено много интересных альтернативных гипотез, она пережила все экспериментальные попытки ее опровержения (см. обзор [Sides, 2002].) Например, следующий эксперимент исключает обе альтернативные гипотезы, предложенные выше. Представьте себе правильный 6-сторонний кубик с четырьмя зелеными сторонами и двумя красными. Кубик будет брошен 20 раз и последовательность выпадения зеленых (G) и красных (R) сторон будет записана. Испытуемый должен выбрать одну последовательность из трех предложенных, и он выиграет 25 $, если выбранная им последовательность выпадет в серии бросков кубика. Вот эти три последовательности, надо выбрать одну из них.

  1. RGRRR
  2. GRGRRR
  3. GRRRRR

125 студентов в Стэнфордском университете играли в эту игру с реальными ставками. 65 % из них выбрали последовательность 2. [Tversky и Kahneman, 1982]. Последовательность 2 наиболее типична для игральной кости, поскольку кость большей частью зеленая и последовательность 2 содержит наибольшую пропорцию зеленых сторон. Однако, последовательность 1 превосходит последовательность 2, поскольку полностью входит в нее. Чтобы получилось 2, у вас должна выпасть последовательность 1 и зеленая грань кости перед ней.

В приведенной выше задаче студенты могли вычислить точные вероятности каждого события. Однако вместо того, чтобы тратить время на арифметические вычисления, 65 % студентов, по-видимому, полагались на интуицию, исходя из того, что казалось более типичным для игральной кости. Когда мы называем это умозаключением по типичности, мы не настаиваем на том, что студенты специально решили, что они будут оценивать вероятность, исходя из типичности. Скорее, умозаключение по типичности является как раз тем, что создает интуитивное чувство, будто последовательность 2 более вероятна, чем последовательность 1. Другими словами, умозаключение по типичности является встроенной характеристикой мозга, предназначенной, чтобы давать быстрые достоверные суждения, а не сознательно выбранной процедурой. Мы не осознаем подмены суждением о типичности суждения о достоверности. Ошибочное включение лишнего элемента подобным же образом происходят в футурологических прогнозах. Две независимых группы профессиональных аналитиков на Втором международном конгрессе по предвидению будущего были опрошены, соответственно, о вероятности «полного разрыва дипломатических отношений между СССР и США в 1983 году» и «русского вторжения в Польшу, и последующего полного разрыва дипломатических отношений между СССР и США в 1983 году». Вторая группа аналитиков сообщила о значительно более высокой вероятности. [Tversky и Kahneman, 1982].

В исследовании Джонсона [Johnson, 1993], группа студентов MBA из Уортона должна была отправиться в Бангкок в качестве части своей образовательной программы. Несколько подгрупп студентов было опрошено на тему, как много они готовы заплатить за антитеррористическую страховку. Первой группе был задан вопрос, сколько она готова заплатить за антитеррористическую страховку, покрывающую перелет из Таиланда в США. Вторую группу студентов спросили, сколько она готова заплатить за страховку, покрывающую перелет туда-обратно. А третью — о страховке, которая бы покрывала все путешествие. Эти три группы оказались в среднем готовы заплатить 17,19, 13,90, и 7,44 долларов соответственно.

С точки зрения теории вероятностей, добавление дополнительной детали к истории делает ее менее вероятной. Менее вероятно, что Линда является кассиром-феминисткой, чем просто кассиром, поскольку все кассиры-феминистки по определению являются кассирами. Но с точки зрения человеческой психологии добавление каждой новой детали делает историю все более достоверной.

Люди могут предпочесть заплатить больше за международную дипломатию, направленную на предотвращение нанотехнологической войны с Китаем, чем за инженерный проект, предназначенный, чтобы защитить от нанотехнологической атаки с любой возможной стороны. Второй сценарий предотвращения выглядит менее зрелищным и побуждающим, но универсальная технологическая защита будет более полезной по причине своей многосторонности. Более ценными выглядят стратегии, которые уменьшают вероятности истребления человечества без жесткой зацикленности только на нанотехнологических угрозах — такие, как колонизация космического пространства или искусственный интеллект (см. работы автора на эту тему). Брюс Шнейер заметил что правительство Соединенных Штатов (и до, и после урагана 2005 года в Новом орлеане), защищало отдельные объекты на территории страны от террористических угроз в стиле киносценариев ценой отвлечения ресурсов из средств гражданской обороны, которые могли бы быть использованы в любой ситуации [Schneier, 2005]. Сверхдетальные заверения также могут создать ложное ощущение безопасности: «Х не является риском существованию, и вы не должны заботиться о нем, потому что верны утверждения A, B, C, D, и E». В то время как ошибка в любом из предположений является потенциально гибельной для человеческого рода. «Мы не должны беспокоиться о нанотехнологической войне, потому что комиссия ООН в начале разовьет эту технологию и предотвратит ее распространение до тех пор, пока не будет разработана активная защита, способная защитить от всех случайных или злонамеренных проявлений, которые современная нанотехнология способна породить, и это условие будет выполняться всегда». Яркие, четко определенные сценарии могут увеличить нашу вероятностную оценку безопасности, равно как и неправильно направить инвестиции в безопасность с учетом излишне суженных или невероятно детализированных сценариев рисков.

В целом, людям свойственно переоценивать вероятность совпадений всех событий в серии и недооценивать вероятность хотя бы одного события из серии. [Tversky и Kahneman, 1982]. То есть, людям свойственно переоценивать вероятность того, что, например, семь событий, с вероятностью 90 % каждое, все вместе совпадут. Наоборот, людям свойственно недооценивать вероятность того, что хотя бы одно событие из семи, имеющих каждое вероятность 10 %, все-таки случится. Некто, оценивающий, стоит ли, например, открыть новую компанию, должен вычислить вероятность того, что множество отдельных событий произойдет одновременно нужным образом (что будет достаточное финансирование, компетентные рабочие, покупатели будут хотеть купить товар), учитывая также вероятность того, что, по крайней мере, одна критическая неприятность случится (банк откажется дать ссуду, главный проект закончится неудачей, ведущий ученый проекта умрет). Это может объяснить, почему только 44 % предприятий выживают в течение первых четырех лет. [Knaup, 2005.]

Адвокаты в своих речах предпочитают избегать выводов, основанных на истинности, по крайней мере, одной из нескольких посылок («либо одно, либо другое, либо третье должно было случится и каждый из этих вариантов приводит к одному и тому же выводу»), в пользу выводов, основанных на совпадении сразу нескольких посылок. Однако с рациональной точки зрения первые случаи гораздо более вероятны, чем вторые. Вымирание человечества в следующем столетии может произойти в результате хотя бы одной из многих причин. Оно может случиться по причине любого глобального риска, обсужденного в статье Бострома «Угрозы существованию», или по какой-нибудь другой причине, которую никто из нас не предвидел. Даже для футурологов описания в духе «или то, или другое, или третье» неудобны, и пророчества, с помощью них сформулированные, звучат непоэтично.

Ошибочность рассуждений, вызванная эффектом подтверждения

В 1960 году Питер Уосон (Peter Wason) провел ныне классический эксперимент, известный как задача «2-4-6» [Wason, 1960.] Испытуемые должны были определить правило, известное экспериментатору, но не самому испытуемому — так, как оно бывает при научном исследовании. Испытуемые писали три числа, таких как «2-4-6» или «10-12-14» на карточках, и экспериментатор говорил, соответствуют ли данные три числа правилу или нет. Изначально испытуемым была выдана тройка чисел 2-4-6 и сказано, что она соответствует правилу. Испытуемые могли продолжать испытывать тройки до тех пор, пока они не чувствовали себя уверенными, что знают правило экспериментатора, и тогда испытуемым объявляли правило.

Хотя участники обычно выражали высокую уверенность в своих догадках, только 21 % из них в этом эксперименте правильно угадали правило, и при повторениях эксперимента уровень успеха обычно составлял 20 %. Вопреки совету Карла Поппера, испытуемые в эксперименте Уосона пытались подтвердить свои гипотезы, а не опровергнуть. Таким образом, те, кто сформулировали гипотезу «Числа увеличиваются каждый раз на два», проверяли тройки 8-10-12 или 20-22-24, слышали, что они подходят, и уверенно объявляли правило. Во всех случаях подлинное правило было одно и то же: три номера должны следовать один за другим по возрастающей. В некоторых случаях испытуемые выдумывали, «тестировали» и объявляли правила, гораздо более сложные, чем действительное.

Задача Уосона «2-4-6» является «прохладной» формой интеллектуальной ошибки, связанной с подтверждением: люди предпочитают подтверждающие, а не опровергающие свидетельства. «Прохладный» означает, что задача «2-4-6» является эмоционально нейтральным случаем интеллектуальной ошибки подтверждения: вывод подтверждается логикой, а не эмоциями. «Горячий» случай имеет место, когда вера эмоционально заряжена, например, в случае политических рассуждений. Неудивительно, что «горячая» ошибочность сильнее — больше по размаху и более устойчивая к изменениям. Активная, полная усилий склонность к подтверждению обычно называется мотивированным мышлением (motivated cognition) (обычно известным как «рационализация»). Как отмечает Бреннер [Brenner, 2002] в «Заметках к теории одобрения»:

«Очевидно, что во многих обстоятельствах желание уверенности в гипотезе может заметно повлиять на воспринимаемую степень ее подтверждения… Кунда [Kunda, 1990] обсуждает, как люди, нацеленные на то, чтобы достичь определенных выводов, пытаются сконструировать (в ошибочной манере) убедительный случай для своей любимой гипотезы, который мог бы убедить беспристрастную аудиторию. Гилович [Gilovich, 2000] предполагает, что выводы, в которые человек не хочет верить, рассматриваются гораздо требовательнее, чем те, в которые он хочет верить. В первом случае человек требует, чтобы свидетельство с необходимостью вело к данному выводу, а во втором — спрашивает, позволяет ли некоторое свидетельство прийти к данному выводу».

Когда люди подвергают те свидетельства, которые противоречат их точке зрения, более пристрастному анализу, чем те, которые ее подтверждают, это называется мотивированный скептицизм или когнитивное искажение несогласия (disconfirmation bias). Ошибка несогласия особенно деструктивна по двум причинам: во-первых, два подверженных этой ошибке спорщика, рассматривая один и тот же поток свидетельств, могут изменить свою веру в противоположных направлениях — обе стороны выборочно принимают только привлекательные для них свидетельства. Накопление большего числа свидетельств не приведет этих спорщиков к согласию. Во-вторых, люди, которые являются более опытными скептиками, – то есть которые знают больший набор типичных логических нестыковок, но применяют этот навык избирательно, – склонны изменять свою точку зрения гораздо медленнее, чем неопытные спорщики.

Тэйбер и Лодж [Taber and Lodge, 2000] исследовали изначальное отношение к теме ношения огнестрельного оружия и изменение его у студентов, под воздействием прочтения политической литературы за и против контроля и выдачи разрешений на оружие. Это исследование проверило шесть следующих гипотез в двух экспериментах:

  1. Эффект предшествующего отношения. Испытуемые, имевшие изначальную точку зрения на проблему — даже когда их поощряли в том, чтобы они были объективными — находили поддерживающие аргументы более охотно, чем опровергающие.
  2. Систематическая ошибка опровержения. Испытуемые тратили больше времени и умственных усилий, стараясь отклонить опровергающие аргументы, чем поддерживающие аргументы.
  3. Систематическая ошибка подтверждения. Испытуемые, свободные выбирать источники информации, скорее искали подтверждающие, чем опровергающие источники.
  4. Поляризация отношения. Предъявление испытуемым очевидно уравновешенного набора аргументов за и против приводило к увеличению изначальной поляризации их мнений.
  5. Эффект силы мнения. Испытуемые, имеющие более ярко выраженное мнение, были более подвержены вышеназванным склонностям к ошибке.
  6. Эффект усложнения. Более искушенные в политике испытуемые, по причине обладания более тяжелым вооружением для опровержения противных фактов и доводов, были более подвержены вышеприведенным систематическим ошибкам.

Забавно, что эксперименты Тэйбера и Лоджа (Taber and Lodge) подтвердили все шесть изначальных гипотез авторов. Вы можете сказать: «Вероятно, эти эксперименты только отражают убеждения, на которые опирались их авторы, и это как раз пример систематической ошибки подтверждения». Если так, то, сделав вас более опытным спорщиком, а именно, научив вас еще одной систематической ошибке, в которой можно обвинить людей, я, в действительности, навредил вам: я ослабил вашу реакцию на новую информацию. Я дал вам еще один шанс всякий раз терпеть неудачу, когда вы сталкиваетесь с возможностью изменить свой стиль мышления. Эвристика и когнитивные искажения широко распространены в человеческих размышлениях. Знание о них позволяет нам замечать большое разнообразие логических ошибок, которые, в противном случае, были бы недоступны для нашего наблюдения. Но, как и любая способность обнаруживать ошибки в рассуждениях, это знание должно применяться как к нашим собственным идеям, так и к идеям других; к идеям, которые нам нравятся, и которые нам не нравятся. Знание человеческой склонности ошибаться — это опасное знание, если вы напоминаете себе об ошибочности тех, кто не согласен с вами. Если я избирателен в отношении тех аргументов, которые я исследую на предмет ошибок, или даже того, насколько глубоко я исследую эти ошибки, тогда каждый новый закон логики, каждая новая логическая несообразность, которую я научаюсь обнаруживать, делает меня глупее. Ум, чтобы быть полезным, должен быть использован не для того, чтобы дурачить самого себя.

Нельзя рационализировать то, что не рационально с самого начала — как если ложь назвать «правдизацией». Нельзя сделать утверждение более истинным посредством взяточничества, лести или даже страстной аргументации — можно заставить больше людей верить в утверждение, но нельзя сделать его вернее. Для того, чтобы сделать наши убеждения более истинными, мы должны изменить сами эти убеждения. Не каждое изменение — это улучшение, но каждое улучшение — это изменение по определению.

Наши убеждения гораздо менее гибкие, чем мы привыкли думать. Гриффин и Тверский [Griffin and Tversky, 1992] аккуратно опросили каждого из двадцати четырёх сотрудников, которые оказались в ситуации выбора из двух предложенных вакансий и попросили их оценить, с какой вероятностью они примут то или иное предложение. Средняя вероятность выбора, высказанная в отношении более привлекательного предложения, составила умеренные 66%. Но только один из 24 опрошенных выбрал в конечном счёте вариант, которому он приписал в начале более низкую вероятность, доведя таким образом точность до 96%. (Это — один из немногих известных примеров, когда имеет место не «сверх-уверенность», а «недо-уверенность».)

Мораль в том, что как только вы начинаете догадываться, каков будет ваш ответ, как только вы приписываете большую вероятность тому, что вы ответите так, а не иначе, вы, на самом деле, уже решили. И если вы будете честны с самим собой, вы должны признать, что обычно вы догадываетесь об окончательном ответе через секунды после того, как услышите вопрос. Мы меняем наши мнения гораздо реже, чем мы думаем. Насколько скоротечен этот короткий незаметный момент, когда мы даже не можем догадаться, каков будет наш ответ, малюсенькое хрупкое мгновение, которое нам отведено, чтобы на самом деле подумать — как в вопросах выбора, так и в вопросах установления фактов.

Шенкель (Shenkel) говорил: «Нет необходимости в вере, пока ситуация может быть легко рассмотрена тем или другим образом».

Норман Майер (Norman R. F. Maier): «Не предлагайте решения до тех пор, пока проблема не будет исследована так тщательно, как это только возможно».

Робин Доуз (Robyn Dawes), комментируя Майера, писал: «Я часто предлагал это правило группам, которые я вел, в частности, когда они сталкивались с особенно трудной проблемой. Это – типичная ситуация, когда члены группы особенно склонны предлагать мгновенные решения».

В компьютерной безопасности «система, которой доверяют» (trusted system) — это та, которой вы на самом деле доверяете, а не та, которая достойна доверия. «Система, которой доверяют» — это система, которая, будучи скомпрометированной, способна вызвать ошибку. Когда вы читаете статью, утверждающую, что глобальная катастрофа невозможна, или имеет определенную годовую вероятность, или может быть преодолена с использованием определенной стратегии — вы доверяете рациональности авторов. Вы доверяете способности авторов переходить от удобных выводов к неудобным, даже в случае отсутствия сногсшибательных экспериментальных свидетельств, опровергающих любимую гипотезу. Вы доверяете авторам в том, что они не искали немного более интенсивно ошибки в тех уравнениях, которые указывали на неверный, с их точки зрения, путь, до того, как к вам попал окончательный вариант статьи.

И если власти вводят закон, по которому даже мельчайший риск существованию человечества достаточен для того, чтобы закрыть проект; или если становится нормой политики де-факто, что ни одно возможное вычисление не может перевесить груз однажды высказанного предположения, то тогда ни один ученый не рискнет больше высказывать предположения. Я не знаю, как решить эту проблему. Но я думаю, что тем, кто оценивает глобальные риски, следует иметь общие представления о человеческих моделях рассуждений и когнитивных искажениях, и об ошибке неподтверждения в частности.

Якорение, настройка и наложение

Экспериментатор крутит у вас на глазах рулетку, и она указывает на некое число, в первом случае, на 65, а во втором — на 15. Экспериментатор затем спрашивает вас, больше или меньше процент африканских стран в ООН этого числа. Затем экспериментатор спрашивает вас о вашей оценке процента африканских стран в ООН. Тверский и Канеман [Tversky и Kahneman, 1974] продемонстрировали, что испытуемые, которых вначале попросили оценить, находится ли искомое число выше или ниже 15, затем давали значительно более низкие оценки процента африканских стран в ООН, чем те испытуемые, которых в начале просили оценить, выше или ниже этот процент 65. Средняя оценка по группе была в первом случае 25, во втором — 45 процентов. Это происходило, несмотря на то, что испытуемые видели, что номера генерируются очевидно случайным образом, рулеткой, и потому могли быть уверены, что эти номера не имеют никакого отношения к реальному проценту африканских стран в ООН. Денежные выплаты за точность не изменили интенсивность этого эффекта. Тверский и Канеман предположили, что этот эффект вызван якорением и настройкой; испытуемые принимали изначальное неинформативное число за точку отсчета, или якорь, и затем увеличивали или уменьшали это число, до тех пор, пока не достигали результата, который выглядел убедительно для них; тогда они прекращали подстройку. Этот результат был недооценкой, связанной с данным якорем.

В примере в начале статьи мы сперва попросили эксперта по веществу P предположить точное значение силы радиосигнала, который приведет к взрыву P, и только затем попросили оценить верхние и нижние границы для этого параметра. Этот метод опроса заставляет людей подстраивать свой ответ о верхней и нижней границе к изначальной оценке, до тех пор, пока они не достигают значений, которые звучат невероятно и прекращают подстройку. Это приводит к недооценке и слишком узким границам интервала уверенности.

После статьи Тверского и Канемана 1974 года стало накапливаться все больше свидетельств широкого круга эффектов якорения и псевдо-якорения. Якорение происходило, даже когда якорь давал абсолютно невероятный ответ на вопрос, например, при опросе студентов относительно года первого визита Эйнштейна в США, после рассмотрения якорей 1215 или 1992. Эти недостоверные якоря создавали эффект якорения такой же силы, как и более достоверные якоря, такие как 1905 и 1939 [Strack and Mussweiler, 1997].

Допустим, вы идете по супермаркету и видите стойку с банками консервированной томатной пасты с надписью: «Только 12 штук в руки». Заставляет ли это людей на самом деле покупать больше томатной пасты? Согласно экспериментальным данным, заставляет [Wansink et. al., 1998].

Более общая форма этого феномена стала известна как эффект загрязнения, поскольку оказалось, что почти любая информация может повлиять на интеллектуальное суждение [Chapman and Johnson, 2002]. Предпринимались попытки ослабить эффект загрязнения путем выплаты испытуемым вознаграждения за правильные ответы. Тверский и Канеман [Tversky и Kahneman, 1974] инструктировали испытуемых о необходимости избежать якорения начальным показателем [Quattrone et. al., 1981] или о необходимости уделять внимание проблемам реального мира [Wansink et. al., 1998]. Эти действия не уменьшили или уменьшили только в незначительной степени интенсивность эффектов якорения и наложения. Более того, испытуемые, спрошенные о том, были ли они подвергнуты действию эффекта загрязнения, обычно не верили, что он на них повлиял, хотя эксперименты показывали обратное. [Wilson et. al., 1996].

Действия, существенно увеличивающие эффект загрязнения – это действия, помещающие испытуемых в интеллектуально трудные условия, такие, как непрерывное прослушивание последовательности слов в процессе работы [Gilbert et. al., 1988] или требование от испытуемых быстрых ответов [Gilbert and Osborne, 1989]. Гилберт [Gilbert et. al., 1988] связывает это с тем, что дополнительная задача влияет на способность отстроиться от якоря; иначе говоря, в интеллектуально загруженных условиях происходит меньшая корректировка. Этот эффект уменьшения корректировки, а значит, увеличения недокорректировки, известен как якорение.

Суммируем: явно нерелевантная информация по-прежнему якорит суждения и искажает догадки. Когда люди начинают с информации, про которую заранее известно, что она нерелевантная, и затем производят подстройку, пока не достигают убедительно звучащего ответа, они обычно недооценивают величину некого параметра. Люди недооценивают величину параметра в гораздо большей степени в ситуациях интеллектуальной нагрузки и других воздействий, что делает проблему более серьезной. Люди отрицают, что были заякорены и недооценивали, даже когда эксперименты показывают противоположное. Эти эффекты не ослабляются или ослабляются незначительно при финансовом вознаграждении, явных инструкциях избежать наложения и в ситуациях из реальной жизни. А теперь вспомните, сколько историй из лент новостей об искусственном интеллекте ссылаются на фильмы о Терминаторе, как если бы они были документальными, и как много медийных историй о взаимодействии мозга и компьютера упоминают боргов из фильма «Звездный путь».

Если даже короткая демонстрация якоря оказывает существенное воздействие на испытуемых, насколько больший эффект мы можем ожидать от чтения целой книги или просмотра остросюжетного телевизионного шоу? В прошлом не было фильмов — все, что вы видели своими глазами, было правдой. Людям следует осознавать, в той мере, в какой осознанные мысли принимаются в расчет, что фантастика есть фантастика. Журналистские упоминания о «Терминаторе» обычно не рассматривают сценарий Камерона в качестве пророчества или установленной правды. Вместо этого репортер как бы считает видения Камерона чем-то, что уже однажды имело место в прошлом и вполне может случиться вновь — фильм вспоминается как если бы он был иллюстрирующим случаем из истории человечества. Я называю эту смесь якорения и доступности для восприятия логической ошибкой генерализации на основании художественного вымысла.

Похожей концепцией является ошибка «хорошей истории», предложенная Бостромом [Bostrom, 2001]. Художественные свидетельства часто состоят из «хороших историй» в бостромском смысле. Отметьте, что не все возможные «хорошие истории» уже представлены в литературе.

Рассказчики историй соблюдают строгие правила повествовательности, не имеющие отношения к реальности. Драматическая логика — это не логика. Вдохновленные писатели знают, что одной правды мало: нельзя заставить поверить в невероятное событие из вашего произведения путем цитирования примеров из реальной жизни. Хорошая история раскрашена яркими деталями, расцвечена цветущими метафорами; рассказчик историй должен быть конкретным, твердым и точным, как камень. Но в предвидении будущего каждая добавленная деталь является дополнительной нагрузкой! Правда — это тяжелая работа, и — не для рассказчиков историй. Мы должны избегать не только одурачивания фантастикой в виде нашей неспособности совершить ментальное усилие, чтобы разувериться в ней, но также того, чтобы фантастика наложилась на наше мышление и стала точкой отсчета для наших суждений. И мы должны осознавать, что мы не всегда осознаем это наложение. В дискуссиях о глобальных рисках отнюдь не необыкновенны категории, выборы, последствия и стратегии, пришедшие из фильмов, книг и телевизионных шоу. Бывают красивые неудачи, но это — откровенная капитуляция.

Рассуждения, обусловленные аффектом

Рассуждения, обусловленные аффектом, возникают, когда субъективные представления о хорошем и плохом выступают в качестве эвристики и способны порождать быстрые, основанные на непосредственном восприятии, суждения, а также систематические ошибки.

В исследовании Словича [Slovic, 2002] две группы испытуемых рассматривали такой сценарий: аэропорт должен решить, следует ли ему потратить деньги на новое оборудование, или на другие аспекты системы безопасности. Шкала ответов ранжирована от 0 (никакой поддержки этому решению) до 20 (очень сильная поддержка). Оказалось, что мероприятие, описанное как «Спасти 150 жизней» получило среднюю поддержку 10,4, в то время как мероприятие, описанное как «Спасти 98 % от 150 жизней» имело среднюю поддержку в 13,6. Даже предложение «спасти 85 % от 150 жизней» имело большую поддержку, чем «спасение 150 жизней». Гипотеза, лежащая в основе этого эксперимента, состояла в том, что «спасение 150 жизней» звучит довольно расплывчато и потому имеет небольшую ценность, в то время как спасение 98 % чего-нибудь это очень хорошо, потому что это очень близко к верхней границе процентной шкалы.

Файнакэйн [Finucane, 2000] исследовал, объединяют ли люди свои оценки возможных преимуществ от некой технологии, такой как, например, ядерная энергетика, со своими оценками возможных рисков, в едином хорошем или плохом ощущении по поводу этой технологии. Он тестировал эту гипотезу, предлагая испытуемым четыре разных сообщения, которые должны были увеличить или ослабить воспринимаемые риски и воспринимаемые преимущества. Не было никакой логической связи между предоставленной информацией о рисках и о преимуществах. В каждом случае новая информация оказывала противоположный эффект на эмоционально противоположную характеристику. Информация, которая увеличивала восприятие риска, ослабляла восприятие преимуществ. Информация, которая ослабляла восприятие преимуществ, увеличивала восприятие рисков. Файнакэйн обнаружил, что нехватка времени обычно усиливает отрицательную взаимосвязь между воспринимаемыми рисками и воспринимаемыми преимуществами — предположительно потому, что эта нехватка усиливает преобладание эмоциональных моделей рассуждений над аналитическим анализом.

Ганзах [Ganzach, 2001] обнаружил тот же эффект в царстве финансов: аналитики делают прогнозы рисков и доходов незнакомых активов на основании эмоционального отношения. Акции, воспринимавшиеся как «хорошие», были определены как имеющие низкий риск и высокий доход; акции, воспринимавшиеся как «плохие», определялись как имеющие низкий доход и высокий риск. Таким образом, для незнакомых акций, воспринимаемый риск и воспринимаемый доход имели отрицательную корреляцию, в соответствии с эмоциональной логикой. (Отметьте, что в этом эксперименте нехватка информации играет ту же роль, что занятость ума или нехватка времени в усилении эффекта эмоциональной логики.) Для знакомых акций воспринимаемый риск и воспринимаемый доход имели позитивную корреляцию, как это и предсказывается в норме экономической теорией. (Если акции безопасны, покупатель платит премию за их безопасность, и они являются более дорогими, что уменьшает ожидаемый доход.)

Люди обычно имеют недостаточную информацию о будущих технологиях. Поэтому неудивительно, что их отношение эмоционально поляризовано. Когда я только начал думать об этих материях, я считал, что биотехнология имеет относительно меньше достоинств сравнительно с нанотехнологией, и я больше боялся сконструированных супервирусов, чем вредоносного применения нанотехнологий. Искусственный интеллект, от которого я ожидал наибольших выгод, нисколько не беспокоил меня. Позже, когда я исследовал проблему гораздо более детально, моя оценка относительных преимуществ осталась относительно такой же, но мои тревоги стали противоположными: более мощные технологии, с большими ожидаемыми выгодами, теперь выглядят имеющими соответственно большие риски. С ретроспективной точки зрения это вполне предсказуемо. Но анализ, основанный на недостаточной информации, склонен оценивать технологии эмоционально, в результате чего информация о преимуществах имеет тенденцию смягчать воспринимаемый риск.

Пренебрежение масштабом

(2000 / 20000 / 200000) перелетных птиц тонут каждый год в незакрытых нефтехранилищах, которые птицы по ошибке принимают за пруды с водой. Эти смерти могут быть предотвращены путем накрывания хранилищ сетями. Сколько денег вы были бы готовы заплатить за установку таких сетей?

Три группы испытуемых, рассматривавших этот вопрос, были опрошены о том, какое увеличение налога они были бы готовы принять, чтобы спасти 2000, 20000 или 200000 птиц. Ответ, названный Установленная Готовность Платить (УГП), был в среднем 80 $ за 2000 птиц, 78 $ за 20000 и 88 $ за 200000 птиц. [Desvousges, 1993]. Этот феномен известен как нечувствительность к масштабу или пренебрежение масштабом.

Подобные исследовании показали, что жители Торонто готовы заплатить только немногим больше, чтобы очистить все озера Онтарио, чем чтобы очистить загрязенные озера только части штата [Kahneman, 1986], и что жители четырех западных штатов в США готовы заплатить только на 28 % больше, чтобы защитить все 57 уголков дикой природы в этих штатах, чем чтобы защитить только один такой уголок. [McFadden и Leonard, 1995]. Наиболее широко распространенное объяснение эффекта пренебрежения масштабом апеллирует к эмоциональной логике. Канеман [Kahneman, 1999] пишет:

«История о птицах из опытов Девужа (Desvousges), вероятно, вызывает у многих читателей ментальное представление о неком событии, возможно — образ истощенной птицы с намоченными черной нефтью крыльями, неспособной спастись. Гипотеза об оценке по первоначальному образу утверждает, что эмоциональное влияние этого образа будет доминировать над отношением к проблеме, включая готовность платить за решение. Оценка по первоначальному образу автоматически означает пренебрежение к остальным деталям ситуации»

Две другие гипотезы о пренебрежении масштабом включают в себя покупку морального удовлетворения [Kahneman и Knetsch, 1992] и пожертвование монетки ради доброго дела [Harrison, 1992]. Гипотеза о моральном удовлетворении предполагает, что люди тратят достаточно денег, чтобы создать ощущение «внутренней теплоты» в себе, и требующийся на это объем денег зависит от человеческой психологии и не имеет ничего общего с птицами. Гипотеза о «монетке на благотворительность» предполагает, что люди готовы выделить определенную сумму «на экологию», и любой вопрос о проблемах окружающей среды просто проявляет это количество.

Пренебрежение масштабом было продемонстрировано и по отношению к человеческим жизням. Карсон и Митчелл [Carson and Mitchell„ 1995] сообщают, что информации об увеличении риска, связанного с питьем хлорированной воды с 0,004 до 2,43 на 1000 смертей в год (то есть в 600 раз) увеличивает установленную готовность платить (УГП) платить с 3,78 до 15,23 долларов (то есть 4 раза). Бэйрон и Грин [Baron and Greene, 1996] обнаружили, что изменение числа спасенных жизней в 10 раз не оказывает никакого эффекта на этот индекс.

Фезерстонхоу [Fetherstonhaugh, 1997], в статье, озаглавленной «Нечувствительность к ценности человеческой жизни: исследование психологического восприятия чисел», обнаружил свидетельства того, что наше восприятие человеческих смертей и ощущение ценности человеческих жизней следует закону Вебера, это значит, что мы используем логарифмическую шкалу. И действительно, исследования эффекта пренебрежения масштабом, в которых количественные изменения были достаточно велики, чтобы вызвать хотя бы какую-то чувствительность, показали небольшие линейные изменения готовности платить, соответствующие экспоненциальным изменениям масштаба. Канеман [Kahneman, 1999] интерпретирует это как дополнительный эффект эмоциональной реакции на масштаб к реакции на первоначальный образ: первоначальный образ вызывает большую часть эмоции, а масштаб вызывает меньшую часть эмоции, которая добавляется (но не умножается) к первоначальному количеству.

Альберт Сент-Дьёрди (Albert Szent-Györgyi) говорит: «На меня производят сильное впечатление страдания одного человека, и я готов рисковать своей жизнью ради него. Но я могу говорить совершенно отстранённо о заражении наших больших городов с сотнями миллионов погибших. Я не способен умножить страдания одного на сто миллионов». Человеческие эмоции возникают внутри аналогового ума. Человеческий мозг не способен выработать достаточно нейротрансмиттеров, чтобы почувствовать эмоцию в тысячу раз более сильную, чем горе на похоронах. Увеличение возможного риска с десяти миллионов смертей до ста миллионов не увеличивает в десять раз нашу решимость не допустить этого. Это просто добавление еще одного нолика на бумаге у нас перед глазами, что имеет столь небольшой эффект, что обычно необходимо изменить количество жертв на несколько порядков, чтобы заметить разницу экспериментально.

Калибровка и сверхуверенность

Насколько люди уверены в своих ошибочных оценках? В первом разделе этой статьи, посвященном эффекту доступности информации, мы обсудили эксперимент по восприятию риска, в котором испытуемые переоценивали типичные для сообщений средств массовой информации причины смерти в пропорции, коррелирующей с избирательными сообщениями в газетах. Словик [Slovic, 1982] также отмечает:

«Одним из пагубных аспектов моделей рассуждений (эвристик) является то, что люди обычно имеют очень большую уверенность в суждениях, основанных на них. В другом исследовании по поводу причин смерти, людей просили сделать ставки на то, что они правы в своем выборе более частой среди двух причин смерти. [Fischoff, Slovic, и Lichtenstein, 1977]. В эксперименте №1 испытуемые были довольно точны, когда делали ставки 1:1, 1.5:1, 2:1, и 3:1. То есть, процент правильных ответов был близок к значению, которое следовало из этих ставок. Однако, по мере увеличения ставок от 3:1 к 100:1 почти никакого прироста точности не происходило. Только 73 % ответов, на которые сделали ставки 100:1, были верны (вместо 99.1 %). Точность возросла до 81 % при ставках 1000:1 и до 87 % при 10000:1. Для ответов, на которые ставили 1000000:1, точность составляла 90 %, то есть, соответствующий уровень доверия должен был бы порождать ставки 9:1. В итоге, испытуемые часто ошибались даже при высочайших уровнях ставок. Более того, они были склонны делать очень высокие ставки. Более половины ставок была выше, чем 50:1. Почти четверть — выше, чем 100:1. 30% респондентов в эксперименте № 1 сделали ставку 50:1 на неверное утверждение, что убийства более часты, чем самоубийства».

Этот кажущийся удивительным результат вполне обычен в литературе, посвященной моделям рассуждений и систематическим ошибкам в мышлении, где он известен как сверхуверенность. Допустим, я попрошу вас сделать наилучшее возможное предположение насчет неизвестного числа, такого, как количество «Врачей и хирургов» в желтых страницах бостонской телефонной книге, или о суммарной продукции яиц в США в миллионах штук. Вы дадите в ответ некую величину, которая наверняка не будет совершенно точной; подлинная величина будет больше или меньше, чем вы предположили. Затем я попрошу вас назвать нижнюю границу этого показателя, такую, насчет которой вы уверены на 99 %, что подлинная величина лежит выше этой границы, и верхнюю границу, по отношению к которой вы на 99 % уверены, что искомая величина лежит ниже нее. Эти две границы образуют ваш интервал 98 % уверенности. Если вы хорошо откалиброваны, то на 100 подобных вопросов у вас будет только примерно 2 выпадения за границы интервала.

Альперт и Раиффа [Alpert и Raiffa, 1982] задали испытуемым 1000 вопросов по общеизвестным темам, подобных приведенным выше. Оказалось, что для 426 из них подлинные значения лежали за пределами 98 % интервалов уверенности, данных испытуемыми. Если бы испытуемые были правильно откалиброваны, было бы только 20 сюрпризов. Иными словами, события, которым испытуемые приписывали вероятность 2%, случались в 42,6%. Другую группу из тридцати пяти испытуемых попросили оценить 99,9% верхние и нижние границы уверенности. Они оказались неправы в 40 % случаев. Другие 35 испытуемых были опрошены о максимальных и минимальных значениях некого параметра и ошиблись в 47% случаев. Наконец, четвертая группа из 35 испытуемых должна была указать «невероятно малое» и «невероятно большое» значение параметра; они ошиблись в 38% случаев.

В следующем эксперименте новой группе испытуемых был предоставлен первый набор вопросов вместе с ответами, рейтингом оценок, с рассказом о результатах экспериментов и разъяснением концепции калибровки, и затем их попросили дать 98% интервалы уверенности для новой группы вопросов. Прошедшие подготовку испытуемые ошиблись в 19% случаях, что являет собой значительное улучшение их результата в 34% до подготовки, но все еще весьма далеко от хорошо откалиброванного результата в 2%.

Подобные уровни ошибок были обнаружены и у экспертов. Хинс и Вэнмарк [Hynes и Vanmarke, 1976] опросили семь всемирно известных геотехников на предмет высоты дамбы, которая вызовет разрушение фундамента из глинистых пород, и попросили оценить интервал 50 % уверенности вокруг этой оценки. Оказалось, что ни один из предложенных интервалов не включал в себя правильную высоту. Кристенсен-Залански и Бушихед [Christensen-Szalanski и Bushyhead, 1981] опросили группу врачей на предмет вероятности пневмонии у 1531 пациента с кашлем. В наиболее точно указанном интервале уверенности с заявленной достоверностью в 88 %, доля пациентов, действительно имевших пневмонию, была менее 20 %.

Говоря словами Алперта и Раиффы [Alpert и Raiffa, 1982]: «Ради Бога, расширяйте свои крайние оценки! Будьте честны с собой! Допустите, что вы не знаете!»

Лихтенштейн [Lichtenstein, 1982] произвел обзор четырнадцати исследований на основании тридцати четырех экспериментов, выполненных двадцатью тремя исследователями, изучавшими особенности оценки достоверности собственных выводов людьми. Из исследований следовал мощнейший вывод о том, что люди всегда сверхуверены. В современных исследованиях на сверхуверенность уже не обращают внимания; но она продолжает попутно проявляться почти в каждом эксперименте, где испытуемым позволяется давать оценки максимальных вероятностей.

Сверхуверенность в большой мере проявляется в сфере планирования, где она известна как ошибочность планирования. Булер [Buehler, 1994] попросил студентов-психологов предсказать важный параметр: время сдачи их дипломных работ. Исследователи подождали, когда студенты приблизились к концу своих годичных проектов и затем попросили их реалистично оценить, когда они сдадут свои работы, а также, когда они сдадут свои работы, если все пойдет «так плохо, как только может». В среднем, студентам потребовалось 55 дней, чтобы завершить свои дипломы, на 22 дня больше, чем они ожидали, и на 7 дней больше, чем они ожидали в худшем случае.

Бюхлер [Buehler, 1994] опросил студентов о времени, к которому студенты на 50% уверены, на 75 % уверены и на 99 % уверены, что они закончат свои академические проекты. Только 13 % участников закончили свои дипломы к моменту, которому приписывали 50 % вероятность, только 19 % закончили к моменту 75 % оценки и 45 % закончили ко времени, оценивавшемуся в 99 % уверенности. Булер [Buehler et. al., 2002] пишет «результаты выхода на уровень 99 % достоверности особенно впечатляющи. Даже когда их попросили сделать наиболее консервативное предсказание, в отношении которого они чувствовали абсолютную уверенность, что его достигнут, все равно уверенность студентов в их временных оценках намного превосходила их реальные результаты».

Ньюби-Кларк [Newby-Clark et. al., 2000] обнаружили, что опросы испытуемых об их предсказаниях, основанных на наиболее реалистичном предположении, и опросы испытуемых об их надеждах в самом лучшем случае давали неразличимые результаты. Будучи спрошены о наиболее вероятном стечении обстоятельств, люди имели тенденцию предполагать, что все пойдет так, как планировалось, без неожиданных задержек и непредвиденных катастроф, то есть так же, как в наилучшем случае. Реальность, как оказалось, зачастую преподносит результаты, худшие, чем самый наихудший случай. В этой статье мы обсуждаем сверхуверенность после обсуждения систематической ошибки подтверждения и частного случая — систематической ошибки неподтверждения. Знание об эффекте калибровки — это опасное знание, поскольку очень соблазнительно применять его избирательно. «Насколько глуп мой оппонент, чтобы быть уверенным в своих аргументах. Знает ли он, как часто люди ошибаются в том, в чем они уверены?» Если вы обнаруживаете, что мнения эксперта имеют гораздо меньше значения, чем вы раньше думали, вам стоит также понять, что ваши собственные мысли тоже гораздо слабее, чем вы думали раньше: и тогда потребуется меньше усилий, чтобы увлечь вас в сторону от ваших любимых убеждений. В противном случае вы станете медленнее реагировать на новые свидетельства. Вы оказываетесь в гораздо более худшем положении, чем, если бы вы никогда не слышали о калибровке. По этой причине — часто, несмотря на значительное искушение — я избегаю обсуждения исследований по калибровке, до того как я обсужу систематическую ошибку подтверждения, для того, чтобы я мог сделать такое же предупреждение.

Отметьте так же, что оценка эксперта, сильно уверенного в своем мнении, принципиально отличается от вычислений, сделанных исключительно на основе статистических данных, или исключительно на основе адекватной, точно подтвержденной модели. Во всех случаях, когда эксперт утверждает, даже на основании точных вычислений, что событие имеет вероятность 10−6, он наверняка ошибается чаще, чем один раз на миллион. Но если бы комбинаторика не могла точно предсказать, что лотерейный билет имеет 10−8 шанс выиграть, то продавцы билетов бы разорились.

Апатия прохожего

Последняя рассматриваемая мной систематическая ошибка относится не к области моделей рассуждений, но к области социальной психологии. В ныне знаменитой серии экспериментов Лэйтен и Дэрли [Latane и Darley, 1969] открыли эффект прохожего, известный также как апатия прохожего, который состоит в том, что в больших группах люди менее склонны реагировать на чрезвычайные ситуации — не только индивидуально, но и коллективно. 75 % испытуемых, будучи одни в комнате и заметив дым из-под двери, выходят, чтобы сообщить об этом. Когда в комнате находятся трое испытуемых, не знающих об условиях опыта, о дыме сообщают только в 38 % случаев. Испытуемый, находясь в компании двух подсадных уток, нарочно не реагирующих на дым, выходит, чтобы сообщить о дыме только в 10 % случаев. Студент колледжа, изображавший эпилептический припадок, получил помощь от единственного свидетеля в 85 % случаев и только в 31 % случаев в присутствии пятерых свидетелей.

Эффект прохожего обычно объясняется как происходящий из рассеяния ответственности и игнорирования из-за неопределенности ситуации. Нахождение в группе уменьшает индивидуальную ответственность. Каждый надеется, что кто-то другой разберется с проблемой вместо них, и это ослабляет личную напряженность каждого по поводу того, что никто ничего не делает. Подтверждением этой гипотезы являются опыты, в которых испытуемые верили, что жертва особенно зависит от них: это ослабляло или полностью устраняло эффект равнодушия прохожего. Чалдини [Cialdini, 2001] рекомендует человеку, оказавшемуся в чрезвычайной ситуации, выделить одного одинокого прохожего и попросить его о помощи — таким образом преодолевая рассеяние ответственности.

Игнорирование из-за неопределенности ситуации является более тонким эффектом. Чалдини [Cialdini, 2001] пишет: «Часто чрезвычайная ситуация далеко не очевидна. Является ли человек, лежащий в парке, жертвой сердечного приступа или спящим пьяным? В случае такой неопределенности естественным поведением является посмотреть вокруг на действия других людей для подсказки. Мы можем понять из поведения других свидетелей, является ли событие чрезвычайной ситуацией или нет. Однако легко забыть при этом, что все остальные свидетели события тоже ищут социального подтверждения. Поскольку все мы предпочитаем выглядеть уравновешенными и сохраняющими самообладание, мы будем искать это подтверждение скрытно, бросая короткие взгляды на людей вокруг нас. Поэтому каждый увидит другого, скорее всего, спокойным и ничего не делающим».

Эффект прохожего не связан с индивидуальным эгоизмом или нечувствительностью к страданиям других. По одиночке испытуемые обычно действуют. Игнорирование из-за неопределенности ситуации может объяснить, в отличие от индивидуального эгоизма, почему испытуемые не реагируют на наполнение комнаты дымом. В экспериментах, где была явная опасность, как для других, так и для себя, испытуемые часто бросали взгляды на нереагировавших подсадных уток.

Я время от времени спрашиваю: «если «глобальный риск Х» реален, почему не много людей делают что-нибудь в связи с этим?» Есть много возможных ответов, части которых я коснулся здесь. Люди могут быть сверхуверены и сверхоптимистичны. Они могут быть сосредоточены на каких-то одних сценариях будущего, исключая при этом все остальные. Они могут не помнить ни одного случая всеобщего истребления. Они могут переоценивать предсказуемость прошлого, и за счет этого недооценивать сюрпризы будущего. Они могут не осознавать трудности подготовки к чрезвычайным ситуациям без преимуществ знания задним числом. Они могут предпочитать филантропические игры с высокой вероятностью выигрыша, пренебрегая величиной ставки. Они могут уравнивать позитивную информацию о преимуществах некой технологии с негативной информацией о ее риске. Они могут быть отравлены кинофильмами, в которых мир, в конце концов, бывает спасен. Они могут получить моральное удовлетворение гораздо проще, давая деньги на другие виды благотворительности. Или же чрезвычайно неприятная перспектива человеческого вымирания может побудить их искать доводы в пользу того, что человечество не вымрет, без столь же интенсивного поиска причин, по которым это может произойти.

Но если вопрос таков: «Почему не так много людей делают что-нибудь в связи с этим?», один возможный момент может быть в том, что люди, задающие этот самый вопрос, рыщут глазами вокруг, чтобы посмотреть, есть ли еще кто-нибудь, реагирующий на опасность, и одновременно стараются выглядеть уравновешенными и сохраняющими самообладание. Если вы хотите узнать, почему другие не реагируют на опасность, перед тем, как среагировать самому, вы уже возможно ответили на свой вопрос.

Последнее предупреждение

Любая достоверная идея, которая вас раздражает, по-видимому, задевает в вас модель хотя бы одной психологической ошибки.

Роберт Пирсиг (Robert Pirsig) сказал: «Самый глупый человек в мире может сказать, что солнце светит, и это не заставит его погаснуть». Если вы подозреваете кого-то в психологической ошибке, продемонстрируйте свою компетентность вначале, вскрыв его фактические ошибки. И если фактических ошибок нет, какое значение имеет психология? Соблазн психологии в том, что, немного зная ее, мы можем вмешиваться в споры, в которых мы не являемся техническими экспертами, мудро анализируя психологию дискутирующих.

Если кто-то написал роман об астероиде, уничтожающем современную цивилизацию, то можно критиковать этот роман как экстремистский, антиутопичный, апокалиптический; симптоматичный для наивной неспособности автора взаимодействовать со сложным технологическим обществом. Мы должны распознать здесь литературную критику, а не научную; это о хороших или плохих романах, а не о хороших или плохих гипотезах. Для того, чтобы вычислить годовую вероятность астероидного удара в реальности, нужно изучать астрономию и поднять исторические записи: никакая литературная критика никак не влияет на это число. Гэрроу [Garreau 2005], по-видимому, утверждает, что сценарий постепенного усиления искусственного интеллекта является более зрелым и обдуманным, чем сценарий очень быстрого развития искусственного интеллекта. Но это вопрос техники, а не предпочтений; никакой объем психологического анализа не даст точное значение наклона кривой.

Обвиняя кого-нибудь в ошибке загрязнения, необходимо привести список специфических деталей, которые, с вашей точки зрения, являются лишней нагрузкой и уменьшают суммарную достоверность. Даже в этом случае, не теряйте связь с фактами первостепенной важности, не позволяйте спору стать спором о психологии.

Несмотря на все опасности и соблазны, лучше знать о когнитивных искажениях, чем не знать их. В противном случае мы попадем прямо во вращающиеся вертолетные лопасти жизни. Но будьте очень осторожны, не проявляйте слишком много рвения в обвинении других в когнитивных искажениях. Таким путем вы только станете профессиональным спорщиком — тем, кто, встретив любой не нравящийся ему аргумент, находит в нем систематическую ошибку. Тот, за кем вы должны следить в наибольшей мере — это вы сами.

Джерри Кливер сказал о спортивных матчах: «Губят не ошибки в выполнении замысловатых техник. Губит элементарное: потеря мяча из виду». Анализ должен быть сконцентрирован на проверяемых утверждениях о реальном мире. Не отрывайте своих глаз от мяча.

Заключение

Почему должен быть единый подход в мышлении о глобальных рисках? Падающие астероиды не похожи на сконструированные супервирусы; катастрофы на ускорителе — на нанотехнологические войны. Почему бы не рассмотреть каждую из этих проблем по отдельности?

Если кто-то предполагает катастрофу на ускорителе, тогда комитет, собранный для анализа этой проблемы, должен, очевидно, включать в себя физиков. Но кто-то в этом комитете должен знать, как ужасающе опасно иметь в своей голове ответ до того, как ты закончил задавать вопрос. Кто-то в этом комитете должен помнить ответ Энрико Ферми на предположение Лео Сциларда о том, что цепная реакция деления может быть использована для производства ядерного оружия. (Ответ был: «Бред!» — Ферми считал эту перспективу столь отдаленной, что она не стоила исследований.) Необходимо помнить историю ошибок в физических расчетах: ядерное испытание «Кастл Браво» вызвало взрыв в 15 мегатонн, вместо 4-8 мегатонн, по причине не учтенной термоядерной реакции на литии-7. Они правильно решили неверное уравнение, забыв подумать обо всех условиях, которые должны быть включены, и в результате, по крайней мере, один человек погиб в расширившемся радиусе выпадения радиоактивных осадков. Также следует помнить аккуратное доказательство Лорда Кельвина с использованием множества независимых вычислений на основании хорошо установленных теорий, о том, что Земля существует не более сорока миллионов лет. Следует знать, что когда эксперт заявляет, что вероятность составляет «один к миллиону» без использования статистических данных и точных расчетов на основании совершенной модели, реальное соотношение, скорее всего, около двадцати к одному (хотя это и не точное соответствие).

Любой глобальный риск порождает проблемы, общие со всеми остальными глобальными рисками, дополнительно к специальным знаниям, связанным с этим конкретным риском. Кто-то в комитете по проблемам физических катастроф должен знать, что означает термин «глобальный риск»; он должен обладать всеми навыками, которые область знания, связанная с глобальными рисками, располагает. Для максимальной безопасности этот ученый должен быть также психологом. Высокий уровень знаний в конкретной области и относительно области глобальных рисков должен быть объединен в одном человеке. Я не верю, что специалист по моделям мышления и заблуждениям, неспособный прочесть физическое уравнение, способен проверить работу физика, который ничего не знает о психологии заблуждений.

Когда-то, давным-давно, я написал несколько сверхдетальных сценариев, не осознавая, что каждая добавленная деталь является дополнительной нагрузкой. Когда-то, давным-давно, я действительно думал, что я могу сказать, что имеется 90-процентная вероятность появления искусственного интеллекта между 2005 и 2025, с пиком в 2018 году. Это заявление кажется мне теперь полностью абсурдным. С какой стати я мог думать, что я могу определить точное вероятностное распределение для проблемы вроде этой?

Профессиональные исследователи, скажем, молекулярной нанотехнологии или искусственного интеллекта, не обладают автоматически дополнительными навыками, необходимыми для анализа глобальных рисков, связанных с их профессией. Никто не сказал мне, когда я начал исследовать вызовы, связанные с искусственным интеллектом, что для такого человека, как я, необходимо заниматься изучением систематических ошибок мышления. Я не помню, как я впервые заинтересовался проблематикой систематических ошибок мышления, но я помню, что это было описание ситуации сверхуверенности — обычное описание, в Интернете, без ссылок. Меня это настолько удивило, что я списался с автором, чтобы узнать, был ли это действительно реальный экспериментальный результат. (Он направил меня к книге «Суждение в условиях неопределенности».)

Я не должен был наткнуться на эту ссылку случайно. Кто-то должен был предупредить меня, как я предупреждаю вас, что это знание необходимо для изучающего глобальные риски. Должен быть круг людей, как мы, а также список навыков, необходимых нам дополнительно к узкопрофессиональным. Я не физик, но я знаю немного — возможно, недостаточно — об истории ошибок в физике, и биолог, думающий о супервирусе, тоже должен это знать. Однажды я встретил адвоката, который вывел свою собственную физику. Я сказал ему: «Вы не можете изобрести свою собственную физику без знания математики и многих лет обучения; физика трудна». Он ответил: «Но если вы действительно понимаете физику, вы можете объяснить ее своей бабушке, как сказал Ричард Фейнман». И я спросил его: «Вы бы посоветовали своему другу защищать самого себя в суде?» И тут он замолчал. Он знал теоретически, что физика сложна, но он никогда не отдавал отчета себе, что физика так же сложна, как юриспруденция. Одна из ошибок мышления, которую мы не обсудили, состоит в незнании того, чего именно мы не знаем. Когда наниматель в отделе кадров некой компании оттачивает свое мастерство, он вспоминает качества кандидатов, которых он нанял, многие их которых оказались в последствие превосходными. Таким образом, рекрутер имеет высокую оценку своих способностей. Но рекрутер никогда не видит работу тех кандидатов, которых он не нанял. Поэтому я должен предупредить, что эта статья затрагивает только малую часть моделей рассуждения и систематических ошибок. И когда вы захотите узнать, насколько много вы знаете, вы вспомните несколько когнитивных искажений, упоминаемых в этой статье, а не множество тех, которые не упомянуты. Короткий обзор не может создать ощущения целостной области знаний, объемного понимания, которое сплетает серию памятных экспериментов посредством единой интерпретации. Множество очень уместных систематических ошибок, таких как потребность в завершении, я даже не упомянул. Целью этой статьи было не обучить знанию, необходимому изучающему глобальные риски, но заинтриговать вас узнать больше.

Мышление о глобальных рисках подвержено всем тем же видам ошибочности, что и мышление вообще. Но ставки гораздо, гораздо больше. Типичный результат в исследованиях систематических ошибок состоит в том, что предложение денег или другой стимул не устраняет систематическую ошибку. (Качелмейер и Шихета [Kachelmeier and Shehata, 1992] предлагали жителям КНР эквивалент трехмесячной зарплаты.) Испытуемые в этих экспериментах не совершали ошибки нарочно — они делали ошибки потому, что не знали, как сделать лучше. Даже если вы скажете им, что выживание человечества является ставкой, они в силу этого все равно будут неспособны сделать лучше. (Это может усилить их потребность в завершенности дискуссии, заставляя их давать худшие результаты.) Это ужасающе пугающее обстоятельство, но люди не становятся умнее, только потому речь идет о выживании человечества.

В дополнение к стандартным систематическим ошибкам, я лично проанализировал то, что выглядит как вредоносные модели мышления в вопросах глобальных рисков. Грипп «испанка» в 1918 году убил 25-50 миллионов человек. Вторая мировая война убила 60 миллионов. 10**7 – таков порядок жертв крупнейших катастроф в человеческой письменной истории. Значительно большие числа, такие как 500 миллионов смертей, и особенно качественно другие сценарии, по-видимому, запускают другой режим мышления — оно переходят в другой регистр. Люди, которые и подумать не могут о том, чтобы навредить ребенку, говорят по поводу рисков глобальных катастроф: «Возможно, человеческий вид вовсе не заслуживает выживания».

В науке о заблуждениях есть поговорка, что люди обдумывают не сами события, а описания событий — то, что называется «непродолженным» мышлением. Продолжение мысли о гибели человечества включает в себя вашу смерть, ваших друзей, вашей семьи, ваших любимых, вашего города, вашей страны, ваших политических единомышленников. И даже люди, которые яростно протестовали бы против предложений вроде стереть Британию с лица земли, убить всех членов Демократической партии в США, превратить Париж в песок, которые бы очень боялись услышать, что доктор скажет им, что у их ребенка рак, эти люди будут обсуждать вымирание человечества с абсолютным спокойствием. «Вымирание человечества», как слова на бумаге, появляющиеся в фантастических романах или философских книгах, — относятся к другому контексту, чем грипп «испанка». Мы мыслим описаниями событий, а не их последствиями. Клише «конец света» вызывает в памяти пласт, связанный с мифами и снами, пророчествами и апокалипсисом, романами и кино. Вызов глобальных рисков для здравого смысла состоит в том, что это катастрофы столь большого масштаба, что люди переключаются в другой режим мышления. Человеческие смерти внезапно уже не ужасны, и детальные предсказания вдруг перестают требовать необходимой компетентности, и счастливый или грустный конец истории — это только вопрос личного вкуса по отношению к историям.

Но это только мое частное наблюдение. Я бы предпочел, чтобы эта статья фокусировалась на ошибках, подробно описанных в литературе — в общей литературе по когнитивной психологии, поскольку пока что нет экспериментальной литературы, посвященной психологии глобальных рисков. А она должна быть. В математическом представлении теории решений на основании теремы Байеса имеется концепция ценности информации — ожидаемой полезности некого знания. Ценность информации происходит из ценности того, о чем эта информация. Если вы удваиваете ставки, вы удваиваете и ценность информации об этих ставках. Ценность рационального мышления определяется подобным образом — ценность вычислений, охватывающих некие данные, определяется на основе самих данных. [Good, 1952]; [Horvitz et. al., 1989].

Я способен по-настоящему оценить ценность ясного мышления о глобальных рисках не более, чем Альберт Cент-Дёрджи (Albert Szent-Györgyi) способен умножить страдания одного человека на сто миллионов. Пренебрежение масштабом — естественная опасность для биологического человека, работающего на аналоговом уме; мозг не способен умножать на шесть миллиардов. Но ставки глобальных рисков простираются далеко за пределы жизней шести миллиардов людей, живущих сейчас — они простираются ко всем звездам и ко всем галактикам, которые люди и их потомки смогут однажды достичь. И весь этот огромный потенциал вращается вокруг нашего выживания здесь, сейчас, в те дни, когда царство человечества — это одна планета, вращающаяся вокруг одной звезды. Я не могу почувствовать наше будущее. Все, что я могу — это защищать его.

Рекомендуемое чтение

  1. «Суждение в условиях неопределенности: эвристика и систематические ошибки». Judgment under uncertainty: Heuristics and biases. (1982.) Под редакцией Даниеля Канемана, Пола Словика и Амоса Тверски (еdited by Daniel Kahneman, Paul Slovic, and Amos Tversky). Этот сборник помогает разобраться в основных понятиях данной области знаний и рассчитан на внешнего к данной теме академического читателя. Следующее издание дает обобщенное, подробно разработанное и детальное объяснение феноменов, рассмотренных в первом издании, но основные результаты остаются неизменными.
  2. «Решения, ценности и рамки». Choices, Values, and Frames. (2000.) Под редакцией Даниеля Канемана и Амоса Тверски (еdited by Daniel Kahneman and Amos Tversky). «Эвристика и систематические модели мышления». Heuristics and Biases. (2003.) Редактировано Томасом Джиловичем, Дейлом Гриффином и Даниелем Канеманом (Edited by Thomas Gilovich, Dale Griffin, and Daniel Kahneman). Эти два сборника статей дают обзор современного состояния науки об эвристике и систематических ошибках. Они в меньшей мере доступны для неподготовленного читателя.
  3. «Рациональный выбор в неопределенном мире: психология интуитивного суждения». Rational Choice in an Uncertain World: The Psychology of Intuitive Judgment, Робин Доуз (by Robyn Dawes). Первая редакция 1988: Доуз и Кэган (by Dawes and Kagan), вторая редакция 2001: Доуз и Хэсти (by Dawes and Hastie). Эта книга предназначена, чтобы ввести в тему когнитивных искажений широкую аудиторию образованных читателей. (Например, теорема Байеса объясняется, хотя и не доказывается, но объяснение занимает только несколько страниц.) Хорошая книга, чтобы быстро охватить поле исследований.

Библиография

  1. Alpert, M. and Raiffa, H. 1982. A Progress Report on the Training of Probability Assessors. In Kahneman et. al. 1982: 294-305.
  2. Ambrose, S.H. 1998. Late Pleistocene human population bottlenecks, volcanic winter, and differentiation of modern humans. Journal of Human Evolution 34:623-651.
  3. Baron, J. and Greene, J. 1996. Determinants of insensitivity to quantity in valuation of public goods: contribution, warm glow, budget constraints, availability, and prominence. Journal of Experimental Psychology: Applied, 2: 107-125.
  4. Bostrom, N. 2001. Existential Risks: Analyzing Human Extinction Scenarios. Journal of Evolution and Technology, 9.
  5. Brenner, L. A., Koehler, D. J. and Rottenstreich, Y. 2002. Remarks on support theory: Recent advances and future directions. In Gilovich et. al. (2003): 489-509.
  6. Buehler, R., Griffin, D. and Ross, M. 1994. Exploring the «planning fallacy»: Why people underestimate their task completion times. Journal of Personality and Social Psychology, 67: 366-381.
  7. Buehler, R., Griffin, D. and Ross, M. 1995. It’s about time: Optimistic predictions in work and love. Pp. 1-32 in European Review of Social Psychology, Volume 6, eds. W. Stroebe and M. Hewstone. Chichester: John Wiley & Sons.
  8. Buehler, R., Griffin, D. and Ross, M. 2002. Inside the planning fallacy: The causes and consequences of optimistic time predictions. In Gilovich et. al. 2003: 250-270.
  9. Burton, I., Kates, R. and White, G. 1978. Environment as Hazard. New York: Oxford University Press.
  10. Carson, R. T. and Mitchell, R. C. 1995. Sequencing and Nesting in Contingent Valuation Surveys. Journal of Environmental Economics and Management, 28(2): 155-73.
  11. Chapman, G.B. and Johnson, E.J. 2002. Incorporating the irrelevant: Anchors in judgments of belief and value. In Gilovich et. al. (2003).
  12. Christensen-Szalanski, J.J.J. and Bushyhead, J.B. 1981. Physicians“ Use of Probabilistic Information in a Real Clinical Setting. Journal of Experimental Psychology: Human Perception and Performance, 7: 928-935.
  13. Cialdini, R. B. 2001. Influence: Science and Practice. Boston, MA: Allyn and Bacon.
  14. Combs, B. and Slovic, P. 1979. Causes of death: Biased newspaper coverage and biased judgments. Journalism Quarterly, 56: 837-843.
  15. Dawes, R.M. 1988. Rational Choice in an Uncertain World. San Diego, CA: Harcourt, Brace, Jovanovich.
  16. Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P. and Wilson, N. 1993. Measuring natural resource damages with contingent valuation: tests of validity and reliability. Pp. 91-159 in Contingent valuation: a critical assessment, ed. J. A. Hausman. Amsterdam: North Holland.
  17. Fetherstonhaugh, D., Slovic, P., Johnson, S. and Friedrich, J. 1997. Insensitivity to the value of human life: A study of psychophysical numbing. Journal of Risk and Uncertainty, 14: 238-300.
  18. Finucane, M.L., Alhakami, A., Slovic, P. and Johnson, S.M. 2000. The affect heuristic in judgments of risks and benefits. Journal of Behavioral Decision Making, 13(1): 1-17.
  19. Fischhoff, B. 1982. For those condemned to study the past: Heuristics and biases in hindsight. In Kahneman et. al. 1982: 332–351.
  20. Fischhoff, B., and Beyth, R. 1975. I knew it would happen: Remembered probabilities of once-future things. Organizational Behavior and Human Performance, 13: 1-16.
  21. Fischhoff, B., Slovic, P. and Lichtenstein, S. 1977. Knowing with certainty: The appropriateness of exterme confidence. Journal of Experimental Psychology: Human Perception and Performance, 3: 522-564.
  22. Ganzach, Y. 2001. Judging risk and return of financial assets. Organizational Behavior and Human Decision Processes, 83: 353-370.
  23. Garreau, J. 2005. Radical Evolution: The Promise and Peril of Enhancing Our Minds, Our Bodies – and What It Means to Be Human. New York: Doubleday.
  24. Gilbert, D. T. and Osborne, R. E. 1989. Thinking backward: Some curable and incurable consequences of cognitive busyness. Journal of Personality and Social Psychology, 57: 940-949.
  25. Gilbert, D. T., Pelham, B. W. and Krull, D. S. 1988. On cognitive busyness: When person perceivers meet persons perceived. Journal of Personality and Social Psychology, 54: 733-740.
  26. Gilovich, T. 2000. Motivated skepticism and motivated credulity: Differential standards of evidence in the evaluation of desired and undesired propositions. Presented at the 12th Annual Convention of the American Psychological Society, Miami Beach, Florida.
  27. Gilovich, T., Griffin, D. and Kahneman, D. eds. 2003. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge, U.K.: Cambridge University Press.
  28. Good, I. J. 1952. Rational decisions. Journal of the Royal Statistical Society, Series B.
  29. Griffin, D. and Tversky, A. 1992. The weighing of evidence and the determinants of confidence. Cognitive Psychology, 24: 411-435.
  30. Harrison, G. W. 1992. Valuing public goods with the contingent valuation method: a critique of Kahneman and Knestch. Journal of Environmental Economics and Management, 23: 248–57.
  31. Horvitz, E.J., Cooper, G.F. and Heckerman, D.E. 1989. Reflection and Action Under Scarce Resources: Theoretical Principles and Empirical Study. Pp. 1121-27 in Proceedings of the Eleventh International Joint Conference on Artificial Intelligence. Detroit, MI.
  32. Hynes, M. E. and Vanmarke, E. K. 1976. Reliability of Embankment Performance Predictions. Proceedings of the ASCE Engineering Mechanics Division Specialty Conference. Waterloo, Ontario: Univ. of Waterloo Press.
  33. Johnson, E., Hershey, J., Meszaros, J.,and Kunreuther, H. 1993. Framing, Probability Distortions and Insurance Decisions. Journal of Risk and Uncertainty, 7: 35-51.
  34. Kachelmeier, S.J. and Shehata, M. 1992. Examining risk preferences under high monetary incentives: Experimental evidence from the People’s Republic of China. American Economic Review, 82: 1120-1141.
  35. Kahneman, D. 1986. Comments on the contingent valuation method. Pp. 185-194 in Valuing environmental goods: a state of the arts assessment of the contingent valuation method, eds. R. G. Cummings, D. S. Brookshire and W. D. Schulze. Totowa, NJ: Roweman and Allanheld.
  36. Kahneman, D. and Knetsch, J.L. 1992. Valuing public goods: the purchase of moral satisfaction. Journal of Environmental Economics and Management, 22: 57-70.
  37. Kahneman, D., Ritov, I. and Schkade, D. A. 1999. Economic Preferences or Attitude Expressions?: An Analysis of Dollar Responses to Public Issues, Journal of Risk and Uncertainty, 19: 203-235.
  38. Kahneman, D., Slovic, P., and Tversky, A., eds. 1982. Judgment under uncertainty: Heuristics and biases. New York: Cambridge University Press.
  39. Kahneman, D. and Tversky, A. 2000. eds. Choices, Values, and Frames. Cambridge, U.K.: Cambridge University Press.
  40. Kamin, K. and Rachlinski, J. 1995. Ex Post ; Ex Ante: Determining Liability in Hindsight. Law and Human Behavior, 19(1): 89-104.
  41. Kates, R. 1962. Hazard and choice perception in flood plain management. Research Paper No. 78. Chicago: University of Chicago, Department of Geography.
  42. Knaup, A. 2005. Survival and longevity in the business employment dynamics data. Monthly Labor Review, May 2005.
  43. Kunda, Z. 1990. The case for motivated reasoning. Psychological Bulletin, 108(3): 480-498.
  44. Kunreuther, H., Hogarth, R. and Meszaros, J. 1993. Insurer ambiguity and market failure. Journal of Risk and Uncertainty, 7: 71-87.
  45. Latane, B. and Darley, J. 1969. Bystander «Apathy», American Scientist, 57: 244-268.
  46. Lichtenstein, S., Fischhoff, B. and Phillips, L. D. 1982. Calibration of probabilities: The state of the art to 1980. In Kahneman et. al. 1982: 306–334.
  47. Lichtenstein, S., Slovic, P., Fischhoff, B., Layman, M. and Combs, B. 1978. Judged Frequency of Lethal Events. Journal of Experimental Psychology: Human Learning and Memory, 4(6), November: 551-78.
  48. McFadden, D. and Leonard, G. 1995. Issues in the contingent valuation of environmental goods: methodologies for data collection and analysis. In Contingent valuation: a critical assessment, ed. J. A. Hausman. Amsterdam: North Holland.
  49. Newby-Clark, I. R., Ross, M., Buehler, R., Koehler, D. J. and Griffin, D. 2000. People focus on optimistic and disregard pessimistic scenarios while predicting their task completion times. Journal of Experimental Psychology: Applied, 6: 171-182
  50. Quattrone, G.A., Lawrence, C.P., Finkel, S.E. and Andrus, D.C. 1981. Explorations in anchoring: The effects of prior range, anchor extremity, and suggestive hints. Manuscript, Stanford University.
  51. Rasmussen, N. C. 1975. Reactor Safety Study: An Assessment of Accident Risks in U.S. Commercial Nuclear Power Plants. NUREG-75/014, WASH-1400 (U.S. Nuclear Regulatory Commission, Washington, D.C.)
  52. Rogers, W. et al. 1986. Report of the Presidential Commission on the Space Shuttle Challenger Accident. Presidential Commission on the Space Shuttle Challenger Accident. Washington, DC.
  53. Sanchiro, C. 2003. Finding Error. Mich. St. L. Rev. 1189.
  54. Schneier, B. 2005. Security lessons of the response to hurricane Katrina. http://www.schneier.com/blog/archives/2005/09/security_lesson.html. Viewed on January 23, 2006.
  55. Sides, A., Osherson, D., Bonini, N., and Viale, R. 2002. On the reality of the conjunction fallacy. Memory & Cognition, 30(2): 191-8.
  56. Slovic, P., Finucane, M., Peters, E. and MacGregor, D. 2002. Rational Actors or Rational Fools: Implications of the Affect Heuristic for Behavioral Economics. Journal of Socio-Economics, 31: 329–342.
  57. Slovic, P., Fischoff, B. and Lichtenstein, S. 1982. Facts Versus Fears: Understanding Perceived Risk. In Kahneman et al. 1982: 463–492.
  58. Strack, F. and Mussweiler, T. 1997. Explaining the enigmatic anchoring effect: Mechanisms of selective accessibility. Journal of Personality and Social Psychology, 73: 437-446.
  59. Taber, C.S. and Lodge, M. 2000. Motivated skepticism in the evaluation of political beliefs. Presented at the 2000 meeting of the American Political Science Association.
  60. Taleb, N. 2001. Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets. Pp. 81-85. New York: Textre.
  61. Taleb, N. 2005. The Black Swan: Why Don’t We Learn that We Don’t Learn? New York: Random House.
  62. Tversky, A. and Kahneman, D. 1973. Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 4: 207-232.
  63. Tversky, A. and Kahneman, D. 1974. Judgment under uncertainty: Heuristics and biases. Science, 185: 251-284.
  64. Tversky, A. and Kahneman, D. 1982. Judgments of and by representativeness. In Kahneman et. al. (1982): 84-98.
  65. Tversky, A. and Kahneman, D. 1983. Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90: 293-315.
  66. Wansink, B., Kent, R.J. and Hoch, S.J. 1998. An Anchoring and Adjustment Model of Purchase Quantity Decisions. Journal of Marketing Research, 35(February): 71-81.
  67. Wason, P.C. 1960. On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12: 129-140.
  68. Wilson, T.D., Houston, C., Etling, K.M. and Brekke, N. 1996. A new look at anchoring effects: Basic anchoring and its antecedents. Journal of Experimental Psychology: General. 4: 387-402.

Предвзятость подтверждения — это склонность искать, интерпретировать, одобрять и вспоминать информацию таким образом, который подтверждает или поддерживает прежние убеждения или ценности. Люди проявляют эту предвзятость, когда выбирают информацию, которая поддерживает их взгляды, игнорируя противоположную информацию, или когда они интерпретируют двусмысленные данные как подтверждающие их существующие взгляды. Эффект наиболее силен для желаемых результатов, для эмоционально заряженных вопросов и для глубоко укоренившихся убеждений. Предвзятость подтверждения нельзя устранить, но с ней можно справиться, например, с помощью образования и обучения навыкам критического мышления .

Предвзятый поиск информации, предвзятая интерпретация этой информации и предвзятое воспоминание использовались для объяснения четырех конкретных эффектов:

  1. поляризация отношения (когда разногласия становятся более резкими, даже если разные стороны сталкиваются с одними и теми же доказательствами)
  2. устойчивость убеждений (когда убеждения сохраняются после того, как доказано, что их доказательства ложны)
  3. иррациональный эффект первичности ( большая зависимость от информации, встречающейся в начале серии)
  4. иллюзорная корреляция (когда люди ложно воспринимают связь между двумя событиями или ситуациями).

Серия психологических экспериментов , проведенных в 1960-х годах, показала, что люди склонны подтверждать свои существующие убеждения. В более поздних работах эти результаты были интерпретированы как тенденция односторонне проверять идеи, фокусируясь на одной возможности и игнорируя альтернативы. В целом, современные объяснения наблюдаемых предубеждений показывают ограниченную человеческую способность обрабатывать весь набор доступной информации, что приводит к неспособности провести нейтральное научное исследование.

Ошибочные решения из-за предвзятости подтверждения были обнаружены в широком диапазоне политических, организационных, финансовых и научных контекстов. Эти предубеждения способствуют чрезмерной уверенности в личных убеждениях и могут поддерживать или укреплять убеждения перед лицом противоположных доказательств. Например, предвзятость подтверждения приводит к систематическим ошибкам в научных исследованиях, основанных на индуктивных рассуждениях (постепенном накоплении подтверждающих доказательств). Точно так же полицейский детектив может опознать подозреваемого в начале расследования, но затем может искать только подтверждающие, а не опровергающие доказательства. Практикующий врач может преждевременно сосредоточиться на конкретном расстройстве в начале диагностического сеанса, а затем искать только подтверждающие доказательства. В социальных сетях предвзятость подтверждения усиливается за счет использования пузырей фильтров или «алгоритмического редактирования», которые отображают для людей только ту информацию, с которой они, вероятно, согласны, исключая при этом противоположные точки зрения.

Определение и контекст

Предвзятость подтверждения, фраза, придуманная английским психологом Питером Уэйсоном , представляет собой склонность людей отдавать предпочтение информации, которая подтверждает или укрепляет их убеждения или ценности и которую трудно вытеснить после подтверждения. Предвзятость подтверждения является примером когнитивной предвзятости .

Предвзятость подтверждения (или предвзятость подтверждения) также называют предвзятостью моей стороны . Также использовалась «предвзятость конгениальности».

Предвзятость подтверждения — это следствие обработки информации . Они отличаются от того, что иногда называют эффектом поведенческого подтверждения , широко известного как самоисполняющееся пророчество , при котором ожидания человека влияют на его собственное поведение, приводя к ожидаемому результату.

Некоторые психологи ограничивают термин «предвзятость подтверждения» выборочным сбором доказательств, подтверждающих то, во что человек уже верит, игнорируя или отвергая доказательства, подтверждающие другой вывод. Другие применяют этот термин в более широком смысле к тенденции сохранять существующие убеждения при поиске доказательств, их интерпретации или воспроизведении из памяти.

Предвзятость подтверждения является результатом автоматических, непреднамеренных стратегий, а не преднамеренного обмана. Предвзятость подтверждения нельзя избежать или устранить, ее можно контролировать только путем улучшения образования и навыков критического мышления.

Предвзятость подтверждения — это широкая конструкция, которая имеет ряд возможных объяснений, а именно: проверка гипотез путем фальсификации, проверка гипотез с помощью положительной стратегии тестирования и объяснения обработки информации.

Типы предвзятости подтверждения

Предвзятый поиск информации

Рисунок человека, сидящего на стуле за письменным столом.

Предвзятость подтверждения описывается как внутреннее « да », повторяющее убеждения человека, как персонаж Чарльза Диккенса Урия Хип .

Эксперименты неоднократно обнаруживали, что люди склонны проверять гипотезы односторонним способом, ища доказательства, согласующиеся с их текущей гипотезой . Вместо того, чтобы искать все соответствующие доказательства, они формулируют вопросы, чтобы получить утвердительный ответ, подтверждающий их теорию. Они ищут последствия, которых они ожидали бы, если бы их гипотеза была верна, а не то, что произошло бы, если бы она была ложной. Например, кто-то, используя вопросы «да/нет», чтобы найти число, которое, как он подозревает, является числом 3, может спросить: «Это нечетное число ?» Люди предпочитают этот тип вопросов, называемый «положительный тест», даже если отрицательный тест, такой как «Это четное число?» даст точно такую ​​же информацию. Однако это не означает, что люди ищут тесты, гарантирующие положительный ответ. В исследованиях, где испытуемые могли выбирать либо такие псевдотесты, либо действительно диагностические, они отдавали предпочтение подлинно диагностическим.

Предпочтение положительных тестов само по себе не является предубеждением, поскольку положительные тесты могут быть очень информативными. Однако в сочетании с другими эффектами эта стратегия может подтвердить существующие убеждения или предположения, независимо от того, верны ли они. В реальных ситуациях доказательства часто бывают сложными и неоднозначными. Например, каждое из различных противоречивых представлений о ком-то может быть подкреплено концентрацией внимания на одном аспекте его или ее поведения. Таким образом, любой поиск доказательств в пользу гипотезы, скорее всего, увенчается успехом. Одной из иллюстраций этого является то, как формулировка вопроса может существенно изменить ответ. Например, люди, которых спрашивают: «Вы довольны своей общественной жизнью?» сообщили о большем удовлетворении, чем те, у кого спросили: «Вы недовольны своей общественной жизнью?»

Даже небольшое изменение в формулировке вопроса может повлиять на то, как люди ищут доступную информацию, и, следовательно, на выводы, к которым они приходят. Это было показано на примере вымышленного дела об опеке над детьми. Участники прочитали, что Родитель А умеренно подходил на роль опекуна по нескольким причинам. У родителя Б было сочетание ярких положительных и отрицательных качеств: близкие отношения с ребенком, но работа, которая отнимала их на долгое время. На вопрос: «Кто из родителей должен взять на себя опеку над ребенком?» большинство участников выбрали Родителя Б, ориентируясь в основном на положительные качества. Однако на вопрос: «Какому родителю следует отказать в опеке над ребенком?» они искали отрицательные качества, и большинство ответило, что Родителю Б следует отказать в опеке, подразумевая, что Родитель А должен иметь опеку.

Подобные исследования продемонстрировали, как люди занимаются предвзятым поиском информации, но также и то, что это явление может быть ограничено предпочтением подлинных диагностических тестов. В первоначальном эксперименте участники оценивали другого человека по параметрам личности интроверсия-экстраверсия на основе интервью. Они выбрали вопросы для интервью из заданного списка. Когда интервьюируемого представляли как интроверта, участники выбирали вопросы, предполагающие интровертность, например: «Что вам неприятно в шумных вечеринках?» Когда интервьюируемого описывали как экстраверта, почти все вопросы предполагали экстравертность, например: «Что бы вы сделали, чтобы оживить скучную вечеринку?» Эти нагруженные вопросы давали интервьюируемым мало или совсем не давали возможности фальсифицировать гипотезу о них. Более поздняя версия эксперимента давала участникам менее предположительные вопросы на выбор, например: «Вы уклоняетесь от социальных взаимодействий?» Участники предпочитали задавать эти более диагностические вопросы, демонстрируя лишь слабую предвзятость в сторону положительных тестов. Этот паттерн, заключающийся в основном в предпочтениях диагностических тестов и в меньшей степени в положительных тестах, был воспроизведен в других исследованиях.

Черты личности влияют и взаимодействуют с предвзятыми процессами поиска. Люди различаются по своей способности защищать свое отношение от внешних нападок в отношении избирательного воздействия . Избирательное воздействие происходит, когда люди ищут информацию, которая соответствует, а не противоречит их личным убеждениям. В эксперименте изучалась степень, в которой люди могли опровергнуть аргументы, противоречащие их личным убеждениям. Люди с высоким уровнем уверенности с большей готовностью ищут информацию, противоречащую их личной позиции, чтобы сформировать аргумент. Это может принимать форму оппозиционного потребления новостей , когда люди ищут противоположные партийные новости, чтобы возразить. Люди с низким уровнем уверенности не ищут противоречивую информацию и предпочитают информацию, которая поддерживает их личную позицию. Люди создают и оценивают доказательства в аргументах, которые предвзято относятся к их собственным убеждениям и мнениям. Повышенный уровень уверенности снижает предпочтение информации, которая поддерживает личные убеждения людей.

В другом эксперименте участникам дали сложную задачу по обнаружению правил, в которой участвовали движущиеся объекты, смоделированные компьютером. Объекты на экране компьютера подчинялись определенным законам, которые участники должны были выяснить. Таким образом, участники могли «стрелять» объектами по экрану, чтобы проверить свои гипотезы. Несмотря на множество попыток за десятичасовую сессию, ни один из участников не разобрался в правилах системы. Обычно они пытались подтвердить, а не опровергнуть свои гипотезы, и неохотно рассматривали альтернативы. Даже увидев объективные доказательства, опровергающие их рабочие гипотезы, они часто продолжали проводить те же тесты. Некоторых участников обучали правильной проверке гипотез, но эти инструкции почти не возымели действия.

Предвзятая интерпретация информации

Умные люди верят в странные вещи, потому что умеют защищать убеждения, к которым пришли по неразумным причинам.

— Майкл Шермер

Предвзятость подтверждения не ограничивается сбором доказательств. Даже если два человека обладают одинаковой информацией, их интерпретация может быть предвзятой.

Команда Стэнфордского университета провела эксперимент, в котором участвовали участники, решительно настроенные по поводу смертной казни, половина из которых была за, а другая половина против. Каждый участник читал описания двух исследований: сравнение штатов США со смертной казнью и без нее и сравнение уровня убийств в штате до и после введения смертной казни. После прочтения краткого описания каждого исследования участников спросили, изменилось ли их мнение. Затем они читали более подробный отчет о процедуре каждого исследования и должны были оценить, было ли исследование проведено хорошо и убедительно. На самом деле исследования были вымышленными. Половине участников сказали, что один вид исследования поддерживает сдерживающий эффект, а другой его подрывает, в то время как для других участников выводы поменялись местами.

Участники, будь то сторонники или противники, сообщили, что немного изменили свое отношение в сторону первого исследования, которое они прочитали. Как только они прочитали более подробные описания двух исследований, почти все они вернулись к своим первоначальным убеждениям, независимо от предоставленных доказательств, указывая на детали, подтверждающие их точку зрения, и игнорируя все, что противоречит. Участники подробно и конкретно описали исследования, подтверждающие их ранее существовавшую точку зрения, как превосходящие те, которые ей противоречили. Говоря об исследовании, которое, казалось, подрывало эффект сдерживания, сторонник смертной казни написал: «Исследование не охватывало достаточно длительный период времени», в то время как комментарий оппонента к тому же исследованию гласил: «Нет веских доказательств, противоречащих были представлены исследователи». Результаты показали, что люди устанавливают более высокие стандарты доказательств для гипотез, которые идут вразрез с их текущими ожиданиями. Этот эффект, известный как «предвзятость неподтверждения», был подтвержден другими экспериментами.

Другое исследование предвзятой интерпретации имело место во время президентских выборов в США в 2004 г. , и в нем приняли участие участники, которые сообщили о своих сильных чувствах к кандидатам. Им были показаны явно противоречащие пары высказываний либо кандидата от республиканцев Джорджа Буша -младшего , либо кандидата от демократов Джона Керри , либо политически нейтрального общественного деятеля. Им также были даны дополнительные заявления, которые сделали очевидное противоречие разумным. Из этих трех частей информации они должны были решить, были ли утверждения каждого человека противоречивыми. В этих оценках были сильные различия: участники гораздо чаще интерпретировали утверждения кандидата, против которых они выступали, как противоречивые.

Большая круглая машина с отверстием посередине, с тарелкой, на которой человек может лежать, чтобы его голова могла поместиться в отверстие.

Сканер МРТ позволил исследователям изучить, как человеческий мозг справляется с противоречивой информацией.

В этом эксперименте участники делали свои выводы, находясь в магнитно-резонансном томографе (МРТ), который отслеживал активность их мозга. Когда участники оценивали противоречивые утверждения предпочитаемого ими кандидата, активизировались эмоциональные центры их мозга. Этого не произошло с заявлениями других деятелей. Экспериментаторы пришли к выводу, что разные ответы на утверждения не были вызваны пассивными ошибками рассуждений. Вместо этого участники активно уменьшали когнитивный диссонанс , вызванный чтением об иррациональном или лицемерном поведении их любимого кандидата.

Предубеждения в интерпретации убеждений сохраняются независимо от уровня интеллекта. Участники эксперимента прошли тест SAT (тест для поступления в колледж, используемый в Соединенных Штатах), чтобы оценить уровень своего интеллекта. Затем они прочитали информацию о проблемах безопасности транспортных средств, и экспериментаторы манипулировали национальным происхождением автомобиля. Американские участники высказали свое мнение о том, следует ли запретить автомобиль, по шестибалльной шкале, где один означает «определенно да», а шесть — «определенно нет». Сначала участники оценивали, допустят ли они опасный немецкий автомобиль на улицах Америки и опасный американский автомобиль на улицах Германии. Участники считали, что опасный немецкий автомобиль на американских улицах должен быть запрещен быстрее, чем опасный американский автомобиль на немецких улицах. Не было никакой разницы между уровнями интеллекта по скорости запрета автомобиля участниками.

Предвзятая интерпретация не ограничивается эмоционально значимыми темами. В другом эксперименте участникам рассказали историю об краже. Они должны были оценить доказательную значимость утверждений, доказывающих либо за, либо против ответственности конкретного персонажа. Когда они выдвинули гипотезу о виновности этого персонажа, они оценили утверждения, подтверждающие эту гипотезу, как более важные, чем противоречивые утверждения.

Предвзятое воспоминание информации

Люди могут запоминать свидетельства выборочно, чтобы подкрепить свои ожидания, даже если они собирают и интерпретируют свидетельства нейтральным образом. Этот эффект называется «избирательным отзывом», «подтверждающей памятью» или «памятью, ориентированной на доступ». Психологические теории различаются в своих предсказаниях относительно избирательного припоминания. Теория схем предсказывает, что информация, соответствующая предыдущим ожиданиям, будет легче храниться и вспоминаться, чем информация, которая не соответствует. Некоторые альтернативные подходы говорят, что неожиданная информация выделяется и поэтому запоминается. Предсказания обеих этих теорий были подтверждены в различных экспериментальных контекстах, и ни одна из теорий не победила полностью.

В одном исследовании участники прочитали профиль женщины, в котором описывалось сочетание интровертного и экстравертного поведения. Позже им пришлось вспомнить примеры ее интроверсии и экстраверсии. Одной группе сказали, что это должно оценить женщину для работы библиотекарем, а второй группе сказали, что это для работы в сфере продаж недвижимости. Между тем, что вспоминали эти две группы, была существенная разница: группа «библиотекарей» вспоминала больше примеров интровертного поведения, а группы «продавцов» вспоминали более экстравертное поведение. Эффект избирательной памяти также был продемонстрирован в экспериментах, которые манипулировали желательностью типов личности. В одном из них группе участников были продемонстрированы доказательства того, что экстраверты более успешны, чем интроверты. Другой группе сказали обратное. В последующем, явно не связанном с этим исследовании, участников попросили вспомнить события из своей жизни, в которых они были либо интровертами, либо экстравертами. Каждая группа участников предоставила больше воспоминаний, связывающих себя с более желательным типом личности, и вспомнила эти воспоминания быстрее.

Изменения в эмоциональном состоянии также могут влиять на воспоминание. Участники оценили свои чувства, когда впервые узнали, что О. Джей Симпсон был оправдан по обвинению в убийстве. Они описали свои эмоциональные реакции и уверенность в приговоре через неделю, два месяца и год после суда. Результаты показали, что оценки участниками вины Симпсона со временем менялись. Чем больше менялось мнение участников о приговоре, тем менее устойчивыми были воспоминания участников об их первоначальных эмоциональных реакциях. Когда два месяца и год спустя участники вспоминали свои первоначальные эмоциональные реакции, их прошлые оценки очень напоминали текущие оценки эмоций. Люди демонстрируют значительную предвзятость в мою сторону, когда обсуждают свое мнение по спорным темам. Припоминание воспоминаний и построение переживаний подвергается ревизии по отношению к соответствующим эмоциональным состояниям.

Было показано, что предвзятость Myside влияет на точность воспроизведения памяти. В ходе эксперимента вдовы и вдовцы оценивали интенсивность пережитого ими горя через шесть месяцев и пять лет после смерти супругов. Участники отметили более высокий опыт горя в шесть месяцев, а не в пять лет. Тем не менее, когда через пять лет участников спросили, как они себя чувствовали через шесть месяцев после смерти близкого человека, интенсивность горя, которую вспоминали участники, сильно коррелировала с их текущим уровнем горя. Похоже, что люди используют свои текущие эмоциональные состояния для анализа того, что они должны были чувствовать, переживая прошлые события. Эмоциональные воспоминания реконструируются по текущим эмоциональным состояниям.

Одно исследование показало, как избирательная память может поддерживать веру в экстрасенсорное восприятие (ESP). Верующим и неверующим были показаны описания экспериментов с экстрасенсорным восприятием. Половине участников каждой группы сказали, что экспериментальные результаты подтверждают существование экстрасенсорного восприятия, а другим сказали, что это не так. В последующем тесте участники точно вспомнили материал, за исключением верующих, которые прочитали неподтверждающие доказательства. Эта группа запомнила значительно меньше информации, и некоторые из них неправильно запомнили результаты как подтверждающие ESP.

Индивидуальные различия

Когда-то считалось, что предвзятость Myside связана с интеллектом; однако исследования показали, что на предвзятость моей стороны больше влияет способность рационально мыслить, чем уровень интеллекта. Предвзятость на мою сторону может привести к неспособности эффективно и логически оценить противоположную сторону аргумента. Исследования показали, что предвзятость на мою сторону — это отсутствие «активной непредубежденности», что означает активный поиск того, почему первоначальная идея может быть ошибочной. Как правило, предвзятость моей стороны используется в эмпирических исследованиях как количество доказательств, используемых в поддержку их стороны по сравнению с противоположной стороной.

Исследование выявило индивидуальные различия в предвзятости на мою сторону. В этом исследовании исследуются индивидуальные различия, которые приобретаются в процессе обучения в культурном контексте и являются изменчивыми. Исследователь обнаружил важную индивидуальную разницу в аргументации. Исследования показали, что индивидуальные различия, такие как способность к дедуктивным рассуждениям, способность преодолевать предубеждения, эпистемологическое понимание и склонность к мышлению, являются важными предикторами рассуждений и генерирования аргументов, контраргументов и опровержений.

В исследовании Кристофера Вулфа и Энн Бритт также изучалось, как мнения участников о том, «что является хорошим аргументом?» может быть источником предвзятости на мою сторону, которая влияет на то, как человек формулирует свои собственные аргументы. В исследовании изучались индивидуальные различия схемы аргументации, и участникам предлагалось написать эссе. Участникам случайным образом поручили написать эссе либо за, либо против предпочитаемой ими стороны аргумента, и им были даны исследовательские инструкции, которые использовали либо сбалансированный, либо неограниченный подход. Инструкции по сбалансированному исследованию предписывали участникам создать «сбалансированный» аргумент, т. е. включающий как «за», так и «против»; в инструкциях по неограниченному исследованию ничего не говорилось о том, как создать аргумент.

В целом результаты показали, что инструкции по сбалансированному исследованию значительно увеличили количество противоречивой информации в аргументах. Эти данные также показывают, что личная вера не является источником предвзятости на мою сторону; однако те участники, которые считают, что хорошим аргументом является аргумент, основанный на фактах, с большей вероятностью проявят предвзятость в мою сторону, чем другие участники. Это свидетельство согласуется с утверждениями, предложенными в статье Бэрона, о том, что мнения людей о том, что способствует правильному мышлению, могут влиять на то, как генерируются аргументы.

Открытие

Неофициальные наблюдения

Гравированный портрет Фрэнсиса Бэкона с головой и плечами в шляпе и воротнике.

До психологических исследований предвзятости подтверждения это явление наблюдалось на протяжении всей истории. Начиная с греческого историка Фукидида (ок. 460 г. до н.э. — ок. 395 г. до н.э.), который писал об ошибочном разуме в «Пелопоннесской войне » ; «…ибо у человечества есть привычка возлагать на беззаботную надежду то, чего они жаждут, и использовать суверенный разум, чтобы отбрасывать то, что им не нравится». Итальянский поэт Данте Алигьери (1265–1321) отметил это в « Божественной комедии », в которой св. Фома Аквинский предостерегает Данте при встрече в раю: «мнение — поспешное — часто может склониться на неправильную сторону, и тогда привязанность к собственному мнению сковывает , ограничивает разум». Ибн Халдун заметил тот же эффект в своей Мукаддиме :

Неправда естественно поражает историческую информацию. Есть разные причины, которые делают это неизбежным. Один из них — приверженность мнениям и школам. … если душа заражена пристрастием к определенному мнению или секте, она без малейшего колебания принимает информацию, которая ей приятна. Предубеждение и пристрастие затмевают способность к критическому анализу и мешают критическому исследованию. В результате ложь принимается и передается.

В « Новом органуме » английский философ и ученый Фрэнсис Бэкон (1561–1626) отмечал, что предвзятая оценка свидетельств привела к «всем суевериям, будь то в астрологии, снах, предзнаменованиях, божественных суждениях и т.п.». Он написал:

Человеческий разум, когда он однажды принял мнение… привлекает все остальное, чтобы поддержать его и согласиться с ним. И хотя с другой стороны можно найти большее количество и вес примеров, тем не менее они либо пренебрегаются, либо презираются, либо по какому-либо различию отбрасываются или отвергаются [.]

Во втором томе своего труда «Мир как воля и представление » (1844 г.) немецкий философ Артур Шопенгауэр заметил, что «принятая гипотеза дает нам рысьи глаза на все, что ее подтверждает, и делает нас слепыми ко всему, что ей противоречит».

В своем эссе (1897 г.) « Что такое искусство? » русский писатель Лев Толстой писал:

Я знаю, что большинство людей — не только считающиеся умными, но даже очень умные и способные разобраться в самых трудных научных, математических или философских проблемах — очень редко способны разглядеть даже самую простую и очевидную истину, если она такова, как заставить их признать ложность сделанных ими, может быть, с большим трудом, выводов, которыми они гордятся, которым научили других и на которых построили свою жизнь.

В своем сочинении (1894 г.) « Царство Божие внутри вас » Толстой ранее писал:

Самые трудные предметы могут быть объяснены самому тугодуму, если он еще не составил о них никакого представления; но самое простое не может быть объяснено самому разумному человеку, если он твердо убежден, что уже знает без тени сомнения то, что ему предстоит.

Объяснение проверки гипотезы (фальсификации) (Уэйсон)

В первоначальном эксперименте Питера Уэйсона, опубликованном в 1960 году (в котором не упоминается термин «предвзятость подтверждения»), он неоднократно предлагал участникам определить правило, применимое к тройкам чисел. Им сказали, что (2,4,6) соответствует правилу. Они генерировали тройки, и экспериментатор сообщал им, соответствует ли каждая тройка правилу.

Фактическим правилом было просто «любая возрастающая последовательность», но участникам было очень трудно его найти, часто объявляя правила, которые были гораздо более конкретными, например, «среднее число — это среднее первого и последнего». Казалось, что участники проверяли только положительные примеры — тройки, которые подчинялись их гипотетическому правилу. Например, если бы они думали, что правило гласит: «Каждое число на два больше, чем предыдущее», они бы предложили тройку, которая соответствовала (подтверждала) этому правилу, например (11,13,15), а не тройку, которая нарушала ( фальсифицировал) его, например (11,12,19).

Уэйсон интерпретировал свои результаты как демонстрацию предпочтения подтверждения фальсификации, поэтому он ввел термин «предвзятость подтверждения». Уэйсон также использовал предвзятость подтверждения, чтобы объяснить результаты своего эксперимента с задачей выбора . Участники неоднократно плохо справлялись с различными формами этого теста, в большинстве случаев игнорируя информацию, которая потенциально могла бы опровергнуть (фальсифицировать) указанное правило.

Объяснение проверки гипотезы (стратегия положительного тестирования) (Клейман и Ха)

В статье Клеймана и Ха 1987 года утверждается, что эксперименты Уэйсона на самом деле не демонстрируют склонности к подтверждению, а вместо этого демонстрируют тенденцию проводить тесты в соответствии с рабочей гипотезой. Они назвали это «стратегией положительного теста». Эта стратегия является примером эвристики : упрощенного способа рассуждения, который несовершенен, но легко вычислим. Клейман и Ха использовали байесовскую теорию вероятности и информацию в качестве своего стандарта проверки гипотез, а не фальсификационизм, используемый Уэйсоном. Согласно этим идеям, каждый ответ на вопрос дает разное количество информации, которое зависит от прежних убеждений человека. Таким образом, научная проверка гипотезы — это проверка, которая, как ожидается, даст наибольшую информацию. Поскольку информативность зависит от исходных вероятностей, положительный тест может быть как высокоинформативным, так и неинформативным. Клейман и Ха утверждали, что когда люди думают о реальных проблемах, они ищут конкретный ответ с небольшой начальной вероятностью. При этом положительные тесты обычно более информативны, чем отрицательные. Однако в задаче на открытие правил Уэйсона ответ — три числа в порядке возрастания — очень широкий, поэтому положительные тесты вряд ли дадут информативные ответы. Клейман и Ха поддержали свой анализ, процитировав эксперимент, в котором использовались ярлыки «DAX» и «MED» вместо «соответствует правилу» и «не соответствует правилу». Это позволило избежать намека на то, что целью было найти правило малой вероятности. Участники имели гораздо больший успех с этой версией эксперимента.

Во вселенной всех возможных троек те, которые соответствуют истинному правилу, схематично показаны в виде круга.  Гипотетическое правило представляет собой меньший круг, заключенный внутри него.

Если истинное правило (T) охватывает текущую гипотезу (H), то положительные тесты (проверка H, чтобы увидеть, является ли это T) не покажут, что гипотеза ложна.

Два перекрывающихся круга представляют истинное правило и гипотетическое правило.  Любое наблюдение, попадающее в непересекающиеся части кругов, показывает, что эти два правила не совсем одинаковы.  Другими словами, эти наблюдения опровергают гипотезу.

Если истинное правило (T) перекрывает текущую гипотезу (H), то либо отрицательный тест, либо положительный тест могут потенциально фальсифицировать H.

Тройки, соответствующие гипотезе, представлены в виде круга во вселенной всех троек.  Истинное правило - меньший круг внутри этого.

Когда рабочая гипотеза (H) включает истинное правило (T), то положительные тесты — единственный способ фальсифицировать H.

В свете этой и других критических замечаний фокус исследований сместился с подтверждения или опровержения гипотезы на изучение того, проверяют ли люди гипотезы информативно или неинформативно, но позитивно. Поиски «истинной» предвзятости подтверждения привели психологов к более широкому спектру эффектов того, как люди обрабатывают информацию.

Пояснения по обработке информации

В настоящее время существует три основных объяснения предвзятости подтверждения при
обработке информации , а также недавнее дополнение.

Когнитивное против мотивационного

Счастливые события лучше запоминаются.

По словам Роберта МакКауна , наиболее предвзятая обработка данных происходит за счет комбинации «холодных» (когнитивных) и «горячих» (мотивированных) механизмов.

Когнитивные объяснения предвзятости подтверждения основаны на ограниченности способности людей справляться со сложными задачами, а также на кратчайшем пути, называемом эвристикой , который они используют. Например, люди могут судить о надежности доказательств, используя эвристику доступности , то есть насколько легко конкретная идея приходит в голову. Также возможно, что люди могут сосредоточиться только на одной мысли за раз, поэтому им трудно параллельно проверять альтернативные гипотезы. Другой эвристикой является стратегия положительного тестирования, определенная Клейманом и Ха, в которой люди проверяют гипотезу, исследуя случаи, когда они ожидают, что произойдет какое-то свойство или событие. Эта эвристика позволяет избежать трудной или невыполнимой задачи определения того, насколько диагностическим будет каждый возможный вопрос. Однако он не всегда надежен, поэтому люди могут не обращать внимания на вызовы своим существующим убеждениям.

Мотивационные объяснения включают влияние желания на веру . Известно, что люди предпочитают позитивные мысли негативным по ряду причин: это называется « принципом Поллианны ». Применительно к аргументам или источникам доказательств это может объяснить, почему желаемые выводы с большей вероятностью будут считаться истинными. Согласно экспериментам, которые манипулируют желательностью заключения, люди требуют высокого стандарта доказательств для неприятных идей и низкого стандарта для предпочитаемых идей. Другими словами, они спрашивают: «Могу ли я в это поверить?» для некоторых предложений и «Должен ли я верить этому?» для других. Хотя постоянство является желательной чертой отношения, чрезмерное стремление к последовательности является еще одним потенциальным источником предвзятости, поскольку оно может помешать людям нейтрально оценивать новую, неожиданную информацию. Социальный психолог Зива Кунда объединяет когнитивную и мотивационную теории, утверждая, что мотивация создает предвзятость, а когнитивные факторы определяют размер эффекта.

Затрат и выгод

Объяснения с точки зрения анализа затрат и результатов предполагают, что люди не просто бескорыстно проверяют гипотезы, но и оценивают цену различных ошибок. Используя идеи эволюционной психологии , Джеймс Фридрих предполагает, что люди в первую очередь не стремятся к истине при проверке гипотез, а стараются избегать наиболее дорогостоящих ошибок. Например, работодатели могут задавать односторонние вопросы на собеседованиях, потому что они сосредоточены на отсеивании неподходящих кандидатов. Уточнение этой теории Яаковом Тропе и Акивой Либерман предполагает, что люди сравнивают два разных вида ошибок: принятие ложной гипотезы и отклонение истинной гипотезы. Например, тот, кто недооценивает честность друга, может относиться к нему или к ней с подозрением и таким образом подрывать дружбу. Переоценка честности друга также может дорого обойтись, но в меньшей степени. В этом случае было бы рационально искать, оценивать или вспоминать доказательства их честности необъективно. Когда кто-то производит первоначальное впечатление интроверта или экстраверта, вопросы, соответствующие этому впечатлению, кажутся более эмпатическими . Это говорит о том, что при разговоре с кем-то, кто кажется интровертом, признаком улучшения социальных навыков является вопрос: «Вы чувствуете себя неловко в социальных ситуациях?» а не «Ты любишь шумные вечеринки?» Связь между предвзятостью подтверждения и социальными навыками была подтверждена исследованием того, как студенты колледжей знакомятся с другими людьми. Студенты с высоким уровнем самоконтроля , которые более чувствительны к своему окружению и социальным нормам , задавали больше подходящих вопросов при интервьюировании высокопоставленного сотрудника, чем при знакомстве с однокурсниками.

Исследовательский против подтверждающего

Психологи Дженнифер Лернер и Филип Тетлок выделяют два разных типа мыслительного процесса. Исследовательское мышление нейтрально рассматривает несколько точек зрения и пытается предвидеть все возможные возражения против конкретной позиции, в то время как подтверждающее мышление стремится обосновать конкретную точку зрения. Лернер и Тетлок говорят, что когда люди рассчитывают обосновать свою позицию перед другими, взгляды которых им уже известны, они склонны занимать ту же позицию, что и эти люди, а затем использовать подтверждающие мысли, чтобы укрепить доверие к себе. Однако, если внешние стороны чрезмерно агрессивны или критичны, люди полностью отключатся от мыслей и просто будут безосновательно отстаивать свое личное мнение. Лернер и Тетлок говорят, что люди подталкивают себя к критическому и логическому мышлению только тогда, когда они заранее знают, что им нужно будет объясняться с другими, которые хорошо информированы, искренне заинтересованы в истине и чьи взгляды они еще не знают. Они утверждают, что поскольку такие условия существуют редко, большинство людей большую часть времени используют подтверждающую мысль.

Притворяться

Психолог, занимающийся вопросами развития, Ева Уитмор утверждала, что убеждения и предубеждения, связанные с предвзятостью подтверждения, уходят своими корнями в детское притворство, которое становится «основой для более сложных форм самообмана и иллюзий во взрослой жизни». Трения, вызванные расспросами в подростковом возрасте с развивающимся критическим мышлением, могут привести к рационализации ложных убеждений, и привычка к такой рационализации может стать бессознательной с годами.

Эффекты реального мира

В социальных сетях предвзятость подтверждения усиливается за счет использования пузырей фильтров или «алгоритмического редактирования», которое отображает людям только ту информацию, с которой они, вероятно, согласны, исключая при этом противоположные точки зрения. Некоторые утверждают, что предвзятость подтверждения является причиной того, что общество никогда не может избежать пузырей фильтров, потому что люди психологически запрограммированы искать информацию, которая согласуется с их ранее существовавшими ценностями и убеждениями. Другие также утверждали, что смесь этих двух факторов унижает демократию , утверждая, что это «алгоритмическое редактирование» удаляет различные точки зрения и информацию, и что, если не будут удалены алгоритмы пузырей фильтров, избиратели не смогут принимать полностью информированные политические решения.

Рост социальных сетей в значительной степени способствовал быстрому распространению фейковых новостей , то есть ложной и вводящей в заблуждение информации, которая представляется как заслуживающая доверия новость из, казалось бы, надежного источника. Предвзятость подтверждения (выбор или переинтерпретация доказательств для поддержки своих убеждений) является одним из трех основных препятствий, объясняющих, почему критическое мышление сбивается с пути в этих обстоятельствах. Две другие — это упрощенная эвристика (когда люди перегружены или у них мало времени, они полагаются на простые правила, такие как групповой консенсус или доверие к эксперту или образцу для подражания) и социальные цели (социальная мотивация или давление сверстников могут помешать объективному анализу имеющихся фактов). .

В борьбе с распространением фейковых новостей сайты социальных сетей рассматривают возможность перехода к «цифровому подталкиванию». В настоящее время это можно сделать в двух различных формах подталкивания. Это включает подталкивание информации и подталкивание презентации. Подталкивание информации подразумевает, что сайты социальных сетей предоставляют заявление об отказе от ответственности или ставят под сомнение или предупреждают пользователей о достоверности источника, в то время как подталкивание к представлению включает предоставление пользователям новой информации, которую они, возможно, не искали, но могут познакомить их с точками зрения, которые могут противоречить их собственным. предвзятость подтверждения.

Наука и научные исследования

Отличительной чертой научного мышления является поиск подтверждающих или подтверждающих свидетельств ( индуктивные рассуждения ), а также фальсифицирующих свидетельств ( дедуктивные рассуждения ). Индуктивные исследования, в частности, могут иметь серьезные проблемы с предвзятостью подтверждения.

Много раз в истории науки ученые сопротивлялись новым открытиям, выборочно интерпретируя или игнорируя неблагоприятные данные. Несколько исследований показали, что ученые оценивают исследования, в которых сообщается о результатах, согласующихся с их предыдущими убеждениями, более положительно, чем исследования, в которых сообщаются результаты, несовместимые с их предыдущими убеждениями.

Однако, если предположить, что вопрос исследования актуален, план эксперимента адекватен, а данные четко и всесторонне описаны, полученные эмпирические данные должны быть важны для научного сообщества и не должны рассматриваться предвзято, независимо от того, соответствуют ли они текущим теоретическим предсказаниям. . На практике исследователи могут неправильно понять, неправильно истолковать или вообще не читать исследования, которые противоречат их предубеждениям, или в любом случае ошибочно цитировать их, как если бы они действительно подтверждали их утверждения.

Кроме того, предвзятость подтверждения может поддерживать научные теории или исследовательские программы перед лицом неадекватных или даже противоречивых доказательств. Дисциплина парапсихологии часто приводится в качестве примера в контексте того, является ли она прото -наукой или лженаукой.

Предвзятость подтверждения экспериментатора потенциально может повлиять на то, какие данные сообщаются. Данные, противоречащие ожиданиям экспериментатора, могут быть легко отброшены как ненадежные, создавая так называемый эффект ящика для файлов . Чтобы бороться с этой тенденцией, научная подготовка учит способам предотвращения предвзятости. Например, экспериментальный дизайн рандомизированных контролируемых испытаний ( в сочетании с их систематическим обзором ) направлен на минимизацию источников систематической ошибки.

Социальный процесс рецензирования направлен на смягчение влияния предубеждений отдельных ученых, даже если сам процесс рецензирования может быть восприимчив к таким предубеждениям. Таким образом, предвзятость подтверждения может быть особенно вредной для объективных оценок несоответствующих результатов, поскольку предвзятые люди могут учитывать противоположные доказательства. быть слабыми в принципе и мало задумываться о пересмотре своих убеждений. Научные новаторы часто встречают сопротивление со стороны научного сообщества, а исследования с противоречивыми результатами часто подвергаются жесткой экспертной оценке.

Финансы

Предвзятость подтверждения может привести к тому, что инвесторы станут слишком самоуверенными, игнорируя доказательства того, что их стратегии принесут убытки. В исследованиях политических фондовых рынков инвесторы получали больше прибыли, когда сопротивлялись предвзятости. Например, участники, интерпретировавшие выступление кандидата на дебатах нейтрально, а не пристрастно, с большей вероятностью получали прибыль. Чтобы бороться с эффектом предвзятости подтверждения, инвесторы могут попытаться принять противоположную точку зрения «ради аргумента». В одном из методов они представляют, что их инвестиции рухнули, и спрашивают себя, почему это могло произойти.

Медицина и здоровье

Когнитивные искажения являются важными переменными в принятии клинических решений врачами общей практики (ВОП) и врачами-специалистами. Двумя важными из них являются систематическая ошибка подтверждения и систематическая ошибка перекрывающейся доступности. Врач общей практики может поставить диагноз на ранней стадии во время осмотра, а затем искать подтверждающие доказательства, а не фальсифицировать доказательства. Эта когнитивная ошибка частично вызвана наличием доказательств предполагаемого диагностируемого расстройства. Например, клиент мог упомянуть расстройство, или врач общей практики мог недавно прочитать широко обсуждаемую статью о расстройстве. В основе этого когнитивного упрощения или эвристики (называемой привязкой) лежит то, что врач не рассматривает несколько возможностей, основанных на доказательствах, а преждевременно фиксирует (или привязывает) единственную причину. В неотложной медицине из-за нехватки времени существует высокая плотность принятия решений, и часто применяются ярлыки. Потенциальная частота неудач этих когнитивных решений должна контролироваться путем информирования о 30 или более когнитивных предубеждениях, которые могут возникнуть, чтобы установить надлежащие стратегии устранения предубеждений. Предвзятость подтверждения может также заставить врачей выполнять ненужные медицинские процедуры из-за давления со стороны непреклонных пациентов.

Психолог Рэймонд Никерсон винит предвзятость подтверждения в неэффективных медицинских процедурах, которые использовались на протяжении столетий до появления научной медицины . Если пациент выздоравливал, медицинские власти считали лечение успешным, а не искали альтернативные объяснения, например, что болезнь прошла своим естественным путем. Предвзятая ассимиляция является фактором современной привлекательности альтернативной медицины , сторонники которой опираются на положительные анекдотические данные , но чрезмерно критично
относятся к научным данным .

Когнитивная терапия была разработана Аароном Т. Беком в начале 1960-х годов и стала популярным подходом. По словам Бека, предвзятая обработка информации является фактором депрессии . Его подход учит людей относиться к доказательствам беспристрастно, а не выборочно усиливать негативные взгляды. Также было показано, что фобии и ипохондрия связаны с предвзятостью подтверждения угрожающей информации.

Политика, право и полиция

Женщина и мужчина читают документ в зале суда

Имитация испытаний позволяет исследователям исследовать предвзятость подтверждения в реалистичной обстановке.

Никерсон утверждает, что рассуждения в судебном и политическом контексте иногда подсознательно предвзяты, отдавая предпочтение выводам, которые судьи, присяжные или правительства уже сделали. Поскольку доказательства в суде присяжных могут быть сложными, и присяжные часто принимают решение о вердикте на ранней стадии, разумно ожидать эффекта поляризации отношения. Предсказание о том, что присяжные станут более радикальными в своих взглядах по мере того, как они увидят больше доказательств, подтвердилось в экспериментах с имитацией судебных процессов . Как следственная , так и состязательная системы уголовного правосудия подвержены предвзятости подтверждения.

Предвзятость подтверждения может быть фактором, создающим или расширяющим конфликты, от эмоциональных дебатов до войн: интерпретируя факты в свою пользу, каждая противоборствующая сторона может стать самоуверенной в том, что она находится в более сильной позиции. С другой стороны, предвзятость подтверждения может привести к тому, что люди будут игнорировать или неверно истолковывать признаки неизбежного или зарождающегося конфликта. Например, психологи Стюарт Сазерленд и Томас Кида утверждали, что адмирал ВМС США Муж Э. Киммел проявлял предвзятость подтверждения, преуменьшая первые признаки нападения японцев на Перл-Харбор .

Двадцатилетнее исследование политических экспертов, проведенное Филипом Э. Тетлоком , показало, что в целом их прогнозы были немногим лучше случая. Тетлок разделил экспертов на «лисиц», выдвигавших несколько гипотез, и «ежей», которые были более догматичны. В целом ежи были гораздо менее точны. Тетлок обвинил в своей неудаче предвзятость подтверждения и, в частности, их неспособность использовать новую информацию, которая противоречила их существующим теориям.

В ходе полицейских расследований детектив может выявить подозреваемого на начальном этапе расследования, но затем иногда в основном ищет подтверждающие или подтверждающие доказательства, игнорируя или преуменьшая фальсификацию доказательств.

Социальные психологи выявили две тенденции в том, как люди ищут или интерпретируют информацию о себе. Самопроверка — это стремление укрепить существующее представление о себе, а самосовершенствование — это стремление найти положительную обратную связь. И то, и другое обслуживается предвзятостью подтверждения. В экспериментах, в которых людям давали обратную связь, противоречащую их представлению о себе, они с меньшей вероятностью обращали на нее внимание или запоминали ее, чем в тех случаях, когда им давали обратную связь с самопроверкой. Они уменьшают влияние такой информации, интерпретируя ее как недостоверную. Подобные эксперименты показали, что положительные отзывы и люди, которые их дают, предпочитают отрицательные отзывы.

Массовые заблуждения

Предвзятость подтверждения может играть ключевую роль в распространении массовых заблуждений . В качестве примера часто приводят
судебные процессы над ведьмами .

В качестве другого примера, во время эпидемии точечной коррозии в Сиэтле , казалось, была «эпидемия точечной коррозии», при которой ветровые стекла были повреждены по неизвестной причине. По мере распространения новостей о явной волне повреждений все больше и больше людей проверяли свои лобовые стекла и обнаруживали, что их лобовые стекла тоже были повреждены, тем самым подтверждая веру в предполагаемую эпидемию. На самом деле, ветровые стекла были ранее повреждены, но повреждения остались незамеченными, пока люди не проверили свои ветровые стекла по мере распространения заблуждения.

Паранормальные верования

Одним из факторов привлекательности предполагаемых экстрасенсорных чтений является то, что слушатели применяют предвзятость подтверждения, которая соответствует утверждениям экстрасенса их собственной жизни. Делая большое количество двусмысленных утверждений на каждом сеансе, экстрасенс дает клиенту больше возможностей найти пару. Это одна из техник холодного чтения , с помощью которой экстрасенс может провести субъективно впечатляющее чтение без какой-либо предварительной информации о клиенте. Следователь Джеймс Рэнди сравнил стенограмму чтения с отчетом клиента о том, что сказал экстрасенс, и обнаружил, что клиент продемонстрировал сильное выборочное воспоминание «попаданий».

В качестве поразительной иллюстрации предвзятости подтверждения в реальном мире Никерсон упоминает нумерологическую пирамидологию : практику нахождения смысла в пропорциях египетских пирамид. Существует множество различных измерений длины, например, Великой пирамиды в Гизе , и множество способов их комбинирования или манипулирования ими. Следовательно, почти неизбежно, что люди, которые выборочно смотрят на эти числа, найдут внешне впечатляющие соответствия, например, с размерами Земли.

Набор и отбор

Неосознанная когнитивная предвзятость (включая предвзятость подтверждения) при приеме на работу влияет на решения о найме и потенциально может препятствовать разнообразию и инклюзивности рабочего места. Существует множество бессознательных предубеждений, которые влияют на решения о приеме на работу, но предвзятость подтверждения является одной из основных, особенно на этапе собеседования. Интервьюер часто выбирает кандидата, который подтверждает его собственные убеждения, даже если другие кандидаты имеют такую ​​же или лучшую квалификацию.

Сопутствующие эффекты и результаты

Поляризация мнений

Когда люди с противоположными взглядами предвзято интерпретируют новую информацию, их взгляды могут расходиться еще больше. Это называется «поляризацией отношения». Эффект был продемонстрирован в эксперименте, в ходе которого из одной из двух скрытых «корзин для бинго» вытягивалась серия красных и черных шаров. Участники знали, что в одной корзине 60% черных и 40% красных шаров; другой, 40 процентов черный и 60 процентов красный. Экспериментаторы наблюдали, что происходит, когда поочередно вытягиваются шары разного цвета — последовательность, которая не благоприятствует ни одной корзине. После извлечения каждого шара участников одной группы просили вслух высказать свои суждения о вероятности того, что шары были извлечены из той или иной корзины. Эти участники, как правило, становились все более уверенными в себе с каждым последующим розыгрышем: независимо от того, думали ли они изначально, что корзина с 60% черных шаров или корзина с 60% красных шаров была более вероятным источником, их оценка вероятности возрастала. Другую группу участников попросили указать оценки вероятности только в конце последовательности выпавших шаров, а не после каждого шара. Они не показали эффекта поляризации, предполагая, что это не обязательно происходит, когда люди просто придерживаются противоположных позиций, а скорее когда они открыто их придерживаются.

Менее абстрактным исследованием был Стэнфордский эксперимент с предвзятой интерпретацией, в ходе которого участники с твердым мнением о смертной казни читали о смешанных экспериментальных данных. Двадцать три процента участников сообщили, что их взгляды стали более экстремальными, и этот сдвиг, о котором сообщали сами, сильно коррелировал с их первоначальными установками. В более поздних экспериментах участники также сообщали, что их мнения становились более экстремальными в ответ на неоднозначную информацию. Однако сравнение их отношения до и после получения новых данных не показало значительных изменений, что позволяет предположить, что изменения, о которых сообщают сами участники, могут быть нереальными. Основываясь на этих экспериментах, Дина Кун и Джозеф Лао пришли к выводу, что поляризация — это реальное явление, но далеко не неизбежное, происходящее лишь в незначительном меньшинстве случаев, и она была вызвана не только рассмотрением смешанных доказательств, но и простым размышлением о теме.

Чарльз Табер и Милтон Лодж утверждали, что результат команды из Стэнфорда было трудно воспроизвести, потому что аргументы, использованные в более поздних экспериментах, были слишком абстрактными или запутанными, чтобы вызвать эмоциональную реакцию. В исследовании Табера и Лоджа использовались эмоционально заряженные темы контроля над оружием и позитивных действий . Они измерили отношение своих участников к этим вопросам до и после ознакомления с аргументами каждой стороны дебатов. Две группы участников показали поляризацию отношения: те, у кого были твердые убеждения, и те, кто был политически осведомлен. В рамках этого исследования участники выбирали, какие источники информации читать, из списка, подготовленного экспериментаторами. Например, они могли бы прочитать аргументы Национальной стрелковой ассоциации и Коалиции Брэди против использования огнестрельного оружия в отношении контроля над огнестрельным оружием. Даже когда участников просили быть беспристрастными, они с большей вероятностью читали аргументы, поддерживающие их существующие взгляды, чем аргументы, которые этого не делали. Этот предвзятый поиск информации хорошо коррелировал с эффектом поляризации.

The
Эффект обратного удара
— это название открытия, согласно которому люди могут отвергать доказательства против своих убеждений и верить в них еще сильнее. Эта фраза была придуманаБренданом Найханоми Джейсоном Рейфлером в 2010 году. Однако последующие исследования с тех пор не смогли воспроизвести результаты, подтверждающие эффект обратного эффекта. В одном исследовании, проведенном в Университете штата Огайо и Университете Джорджа Вашингтона, приняли участие 10 100 участников с 52 различными проблемами, которые, как ожидается, вызовут обратный эффект. Хотя результаты действительно пришли к выводу, что люди неохотно принимают факты, противоречащие их уже существующей идеологии, случаев обратного эффекта обнаружено не было. С тех пор было отмечено, что обратный эффект является скорее редким явлением, чем обычным явлением (сравнитеэффект бумеранга).

Стойкость дискредитированных убеждений

Убеждения могут выдержать серьезные логические или эмпирические вызовы. Они могут выжить и даже быть подкреплены доказательствами, которые, по логике вещей, согласятся с тем, что большинство беспристрастных наблюдателей требует некоторого ослабления таких убеждений. Они могут пережить даже полное уничтожение своих первоначальных доказательных баз.

— Ли Росс и Крейг Андерсон

Предвзятость подтверждения дает одно из правдоподобных объяснений стойкости убеждений, когда исходные доказательства их удаляются или когда им резко противоречат. Этот эффект стойкости убеждений был впервые продемонстрирован экспериментально Фестингером , Рикеном и Шахтером. Эти психологи проводили время с сектой, члены которой были убеждены, что конец света наступит 21 декабря 1954 года. После того, как предсказание не сбылось, большинство верующих все еще цеплялись за свою веру. Их книга, описывающая это исследование, метко названа « Когда пророчество не сбывается» .

Однако термин « настойчивость убеждений » был придуман в серии экспериментов с использованием так называемой «парадигмы разбора полетов»: участники читают фальшивые доказательства гипотезы, измеряется изменение их отношения , затем фальшивка подробно разоблачается. Затем их отношение измеряется еще раз, чтобы увидеть, вернется ли их убеждение на прежний уровень.

Обычный вывод состоит в том, что по крайней мере часть первоначального убеждения остается даже после полного разбора полетов. В одном эксперименте участники должны были различать настоящие и фальшивые предсмертные записки. Обратная связь была случайной: некоторым сказали, что они справились хорошо, а другим сказали, что они выступили плохо. Даже после полного опроса участники все еще находились под влиянием обратной связи. Они по-прежнему думали, что они лучше или хуже среднего справляются с такого рода задачами, в зависимости от того, что им изначально говорили.

В другом исследовании участники читали оценки эффективности работы двух пожарных, а также их ответы на тест на неприятие риска . Эти вымышленные данные были организованы так, чтобы показать либо отрицательную, либо положительную связь: некоторым участникам сказали, что рискованный пожарный справился лучше, в то время как другим сказали, что они справились хуже, чем его коллега, избегающий риска. Даже если бы эти два тематических исследования были правдой, с научной точки зрения они были бы плохим доказательством для вывода о пожарных в целом. Однако участники сочли их субъективно убедительными. Когда было показано, что тематические исследования были вымышленными, вера участников в связь уменьшилась, но примерно половина исходного эффекта осталась. Последующие интервью показали, что участники поняли дебрифинг и отнеслись к нему серьезно. Участники, казалось, доверяли разбору полетов, но считали дискредитированную информацию не относящейся к их личному убеждению.

Эффект продолжающегося влияния — это тенденция дезинформации продолжать влиять на память и рассуждения о событии, несмотря на то, что дезинформация была отозвана или исправлена. Это происходит даже тогда, когда человек верит в исправление.

Предпочтение ранней информации

Эксперименты показали, что информация получает больший вес, когда она появляется в начале ряда, даже если порядок не имеет значения. Например, у людей создается более положительное впечатление о ком-то, кого описывают как «умного, трудолюбивого, импульсивного, критичного, упрямого, завистливого», чем когда им говорят те же слова в обратном порядке. Этот иррациональный эффект первичности не зависит от эффекта первичности в памяти , когда более ранние элементы в серии оставляют более сильный след в памяти. Предвзятая интерпретация предлагает объяснение этому эффекту: увидев первоначальные данные, люди формируют рабочую гипотезу, которая влияет на то, как они интерпретируют остальную информацию.

В одной демонстрации иррационального первенства использовались цветные фишки, предположительно извлеченные из двух урн. Участникам сообщалось о цветовом распределении урн, и они должны были оценить вероятность того, что фишка будет извлечена из одной из них. На самом деле цвета появились в заранее оговоренном порядке. Первые тридцать розыгрышей благоприятствовали одной урне, а следующие тридцать — другой. Серия в целом была нейтральной, поэтому с точки зрения рациональности обе урны были равновероятны. Однако после шестидесяти розыгрышей участники предпочли урну, предложенную первыми тридцатью.

В другом эксперименте демонстрировалось слайд-шоу одного объекта, который поначалу казался просто размытым, а с каждым последующим слайдом все более четко сфокусированным. После каждого слайда участники должны были высказать свое лучшее предположение о том, что это за объект. Участники, чьи ранние догадки были неверны, продолжали придерживаться этих догадок, даже когда изображение было достаточно сфокусировано, чтобы объект был легко узнаваем другими людьми.

Иллюзорная связь между событиями

Иллюзорная корреляция — это тенденция видеть несуществующие корреляции в наборе данных. Эта тенденция была впервые продемонстрирована в серии экспериментов в конце 1960-х годов. В одном эксперименте участники читали набор психиатрических тематических исследований, включая ответы на тест чернильных пятен Роршаха . Участники сообщили, что гомосексуальные мужчины в наборе чаще сообщали о том, что видели ягодицы, анусы или сексуально неоднозначные фигуры в чернильных пятнах. На самом деле вымышленные тематические исследования были построены таким образом, чтобы гомосексуальные мужчины не чаще сообщали об этом образе или, в одной из версий эксперимента, с меньшей вероятностью сообщали об этом, чем гетеросексуальные мужчины. В ходе опроса группа опытных психоаналитиков сообщила о том же наборе иллюзорных ассоциаций с гомосексуализмом.

Другое исследование зафиксировало симптомы, которые испытывали пациенты с артритом, а также погодные условия в течение 15-месячного периода. Почти все пациенты сообщили, что их боли коррелировали с погодными условиями, хотя реальная корреляция была нулевой.

Пример

Дни Дождь Дождя нет
Артрит 14 6
Нет артрита 7 2

Этот эффект представляет собой своего рода предвзятую интерпретацию, поскольку объективно нейтральные или неблагоприятные данные интерпретируются в поддержку существующих убеждений. Это также связано с предубеждениями в поведении при проверке гипотез. При оценке корреляции между двумя событиями, такими как болезнь и плохая погода, люди в значительной степени полагаются на количество положительно-положительных случаев: в этом примере это случаи как боли, так и плохой погоды. Они уделяют относительно мало внимания другим видам наблюдений (отсутствию боли и/или хорошей погоде). Это аналогично тому, как полагаются на положительные тесты при проверке гипотез. Это также может отражать избирательное воспоминание, поскольку у людей может возникнуть ощущение, что два события связаны, потому что легче вспомнить моменты, когда они произошли вместе.

Смотрите также

  • Апофения
  • Сбор вишни
  • Круговой источник
  • Компартментализация (психология)
  • Снижение когнитивных искажений
  • Когнитивная инерция
  • Когнитивный скряга
  • Отрицание
  • отрицание
  • Эхо-камера (среда)
  • Заблуждение
  • Эффект ложного консенсуса
  • Групповое мышление
  • Эффект враждебных СМИ
  • Идея фикс (психология)
  • Эффект иллюзорной правды
  • Теория прививки
  • Список когнитивных искажений
  • Эффект ожидания наблюдателя
  • Опубликовать правду
  • Выборочное восприятие
  • Рефлекс Земмельвейса
  • Эффект Вузла

Заметки

использованная литература

Цитаты

Источники

  • Барон, Джонатан (2000), Думая и решая (3-е изд.), Нью-Йорк: Издательство Кембриджского университета, ISBN 978-0-521-65030-4, ОЦЛК  316403966
  • Хорошо, Корделия (2006), Собственный разум: как ваш мозг искажает и обманывает , Кембридж, Великобритания: Icon Books , ISBN 978-1-84046-678-2, ОКЗК  60668289
  • Фридрих, Джеймс (1993), «Стратегии обнаружения и минимизации первичных ошибок (PEDMIN) в социальном познании: переосмысление феномена предвзятости подтверждения», Psychological Review , 100 (2): 298–319, doi : 10.1037/0033-295X.100.2 .298 , ISSN  0033-295X , PMID  8483985
  • Голдакр, Бен (2008), Плохая наука , Лондон: Четвертое сословие, ISBN 978-0-00-724019-7, ОЦЛК  259713114
  • Хергович, Андреас; Шотт, Рейнхард; Бургер, Кристоф (2010), «Предвзятая оценка рефератов в зависимости от темы и заключения: еще одно свидетельство предвзятости подтверждения в научной психологии», Current Psychology , 29 (3): 188–209, doi : 10.1007 / s12144-010-9087. -5 , S2CID  145497196
  • Кида, Томас Э. (2006), Не верьте всему, что вы думаете: 6 основных ошибок, которые мы совершаем в мышлении , Амхерст, Нью-Йорк: Prometheus Books , ISBN 978-1-59102-408-8, ОЦЛК  63297791
  • Келер, Джонатан Дж. (1993), «Влияние прежних убеждений на научные суждения о качестве доказательств», Организационное поведение и процессы принятия решений человеком , 56 : 28–55, doi : 10.1006 / obhd.1993.1044
  • Кунда, Зива (1999), Социальное познание: понимание людей , MIT Press , ISBN 978-0-262-61143-5, OCLC  40618974
  • Левицка, Мария (1998), «Предвзятость подтверждения: когнитивная ошибка или адаптивная стратегия контроля действий?», Кофта, Мирослав; Усталый, Гиффорд; Седек, Гжегож (ред.), Личный контроль в действии: когнитивные и мотивационные механизмы , Springer, стр. 233–255, ISBN . 978-0-306-45720-3, OCLC  39002877
  • МакКоун, Роберт Дж. (1998), «Предубеждения в интерпретации и использовании результатов исследований» (PDF) , Ежегодный обзор психологии , 49 : 259–287, doi : 10.1146/annurev.psych.49.1.259 , PMID  15012470
  • Махони, Майкл Дж. (1977), «Публикационные предубеждения: экспериментальное исследование подтверждающей предвзятости в системе рецензирования», Cognitive Therapy and Research , 1 (2): 161–175, doi : 10.1007/BF01173636 , S2CID  7350256
  • Никерсон, Рэймонд С. (1998), «Предвзятость подтверждения: повсеместное явление во многих обличьях», Review of General Psychology , 2 (2): 175–220, doi : 10.1037/1089-2680.2.2.175 , S2CID  8508954
  • Освальд, Маргит Э .; Грожан, Стефан (2004), «Предвзятость подтверждения» , у Пола, Рюдигера Ф. (редактор), Когнитивные иллюзии: справочник по заблуждениям и предубеждениям в мышлении, суждениях и памяти , Хоув, Великобритания: Psychology Press, стр.  79– 96 , ISBN 978-1-84169-351-4, OCLC  55124398
  • Плоус, Скотт (1993), Психология суждений и принятия решений , McGraw-Hill, ISBN 978-0-07-050477-6, ОЦЛК  26931106
  • Полетек, Фенна (2001), Поведение при проверке гипотез , Хоув, Великобритания: Psychology Press, ISBN 978-1-84169-159-6, ОЦЛК  44683470
  • Воскресший, Джейн; Гилович, Томас (2007), «Неформальные логические ошибки», у Штернберга, Роберта Дж .; Редигер III, Генри Л.; Халперн, Дайан Ф. (ред.), Критическое мышление в психологии , Cambridge University Press, стр. 110–130, ISBN . 978-0-521-60834-3, OCLC  69423179
  • Вайс, Стюарт А. (1997), Вера в магию: психология суеверий , Нью-Йорк: Oxford University Press, ISBN 978-0-19-513634-0, ОЦЛК  35025826
  • Уэйсон, Питер С. (1960), «О неспособности исключить гипотезы в концептуальной задаче», Quarterly Journal of Experimental Psychology , 12 (3): 129–140, doi : 10.1080/17470216008416717 , ISSN  1747-0226 , S2CID  19237642

дальнейшее чтение

  • Кеохейн, Джо (11 июля 2010 г.), «Как факты имеют неприятные последствия: исследователи обнаруживают удивительную угрозу демократии: наш мозг» , Boston Globe , The New York Times
  • Ливитт, Фред (2015), Танцы с абсурдом: ваши самые заветные убеждения (и все остальные), вероятно, ошибочны , издательство Peter Lang Publishers
  • Станович, Кейт (2009), Что упускают тесты интеллекта: психология рационального мышления (Лей), Нью-Хейвен (Коннектикут): издательство Йельского университета , ISBN 978-0-300-12385-2
  • Вестен, Дрю (2007), Политический мозг: роль эмоций в решении судьбы нации , PublicAffairs , ISBN 978-1-58648-425-5, OCLC  86117725

внешние ссылки

  • Словарь скептика: предвзятость подтверждения — Роберт Т. Кэрролл
  • Преподавание предвзятости подтверждения — раздаточный материал для занятий и заметки для инструктора К. Х. Гробмана.
  • Предвзятость подтверждения в You Are Not So Smart
  • Учебный объект предвзятости подтверждения — интерактивное упражнение с числовыми тройками Рода МакФарланда для Университета Саймона Фрейзера.
  • Краткое изложение Стэнфордского исследования предвзятости ассимиляции 1979 г. — Кит Роллаг, Колледж Бэбсона.

Систематическая ошибка согласованности

  • Систематическая ошибка согласованности является одним из видов когнитивных искажений, это явление схоже с предвзятостью подтверждения. Систематическая ошибка согласованности происходит из-за чрезмерной увлеченности людей непосредственно исследовать данную гипотезу, пренебрегая косвенным опытом.

    Бывает, результат, полученный непрямым опытом, получается таким же, как и прямым. Предположим, в эксперименте испытуемому представляли две кнопки и говорили, что нажатие одной из них открывает дверь. Прямая проверка этой гипотезы — нажатие кнопки слева; косвенный тест — нажатие кнопки справа. Последние действие — по-прежнему имеющий силу опыт, потому что после нажатия правой кнопки дверь остаётся закрытой и можно сделать вывод о том, что нажимать нужно левую кнопку.

    Идея прямого и косвенного контроля применяется и в более сложных экспериментах с целью объяснить возникновение систематической ошибки согласованности у людей. В эксперименте испытуемые проверяют свои неверные гипотезы снова и снова, незначительно видоизменяя, вместо того, чтобы попытаться отказаться от них.

    Классический пример иррационального усиления индивидов показал Вэйсон (1960, 1968). Экспериментатор давал испытуемым числовую последовательность «2, 4, 6», говорил, что эта последовательность следует определенному правилу, и давал задание найти правило, лежащее в основе последовательности. Большинство испытуемых ответили на задачу, быстро решив, что основное правило «числа, восходящие на 2», а также предоставили в качестве доказательства множество последовательностей, согласующихся с этим правилом, например, «3, 5, 7».

    Каждая из этих последовательностей соответствует основному правилу, которое задумал экспериментатор, хотя правило «цифры в порядке возрастания на 2» не является фактическим критерием, который используется. Однако, поскольку субъекты преуспевают неоднократно, решая задачи тем же одним принципом, они наивно полагают, что их выбранная гипотеза верна. Когда экспериментатор сообщает испытуемым, что их гипотеза неверна, многие субъекты пытаются изменить формулировку правила, не меняя свой смысл, и даже те, кто переключаются на косвенное тестирование, не могут отказаться от части правила «+ 2», и производят схожие правила, такие как «первые два номера в последовательности являются случайными, а третий номер — второй номер плюс два». Многие субъекты никогда не обнаруживают решение, что фактическое правило, использованное экспериментатором — просто список возрастающих чисел, из-за неспособности испытуемых рассмотреть непрямые проверки их гипотезы.

    Ошибка использована Элиезером Юдковским под названием «положительная предвзятость» в восьмой главе книги Гарри Поттер и методы рационального мышления. Там же приводится пример, что фактическим правилом могло быть не только «три действительных числа в порядке возрастания, от меньшего к большему», а и вообще «любые три числа». Для исключения «положительной предвзятости» следовало рассмотреть непрямые проверки, особенно те, на которые был бы получен ответ «неверно».

Источник: Википедия

Связанные понятия

Фидуциальный вывод (от лат. fides: вера, доверие), как разновидность статистического вывода, был впервые предложен сэром Р. Э. Фишером.

Реше́ние зада́ч — процесс выполнения действий или мыслительных операций, направленный на достижение цели, заданной в рамках проблемной ситуации — задачи; является составной частью мышления.

Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.

Ошибки первого рода — «ложная тревога» (англ. type I errors, α errors, false positive) и ошибки второго рода — «пропуск цели» (англ. type II errors, β errors, false negative) в математической статистике — это ключевые понятия задач проверки статистических гипотез.

Склонность к подтверждению своей точки зрения или предвзятость подтверждения (англ. confirmation bias) — тенденция человека искать и интерпретировать такую информацию или отдавать предпочтение такой информации, которая согласуется с его точкой зрения, убеждением или гипотезой.

Эксперимент Стѐрнберга — классический эксперимент, проведенный в 1966 году психологом Солом Стернбергом, позволивший сделать вывод о том, что информация извлекается из кратковременной памяти путём последовательного исчерпывающего сканирования. Оригинальные и модифицированные схемы теста (Sternberg item recognition paradigm, SIRP), описанного в статье «High-Speed Scanning in Human Memory» и являющегося частью эмпирического базиса этой теории, используются для изучения особенностей кратковременной…

Тестирование чёрного ящика или поведенческое тестирование — стратегия (метод) тестирования функционального поведения объекта (программы, системы) с точки зрения внешнего мира, при котором не используется знание о внутреннем устройстве тестируемого объекта. Под стратегией понимаются систематические методы отбора и создания тестов для тестового набора. Стратегия поведенческого теста исходит из технических требований и их спецификаций.

Тео́рия приня́тия реше́ний — область исследования, вовлекающая понятия и методы математики, статистики, экономики, менеджмента и психологии с целью изучения закономерностей выбора людьми путей решения проблем и задач, а также способов достижения желаемого результата.

В современном мире под термином «медиа» в первую очередь ошибочно подразумевают только средства массовой информации, но по своей изначальному смыслу под «медиа» следует понимать любые средства коммуникации. Медиа- это любой посредник между людьми, между человеком и средой, это любой способ передачи какой-либо информации. Например, медиа могут быть не только ТВ, радио, газета, социальные сети и т.д.., но и такие специфические вещи как танец, фотография, картинка, дневник, предмет гардероба или даже…

Подробнее: Методы исследования медиа

Ме́тод проб и оши́бок (в просторечии также: метод (научного) тыка) — является врождённым эмпирическим методом мышления человека. Также этот метод называют методом перебора вариантов.

ДСМ-метод — метод автоматического порождения гипотез. Формализует схему правдоподобного и достоверного вывода, называемую ДСМ-рассуждением.

Теория распознава́ния о́браза — раздел информатики и смежных дисциплин, развивающий основы и методы классификации и идентификации предметов, явлений, процессов, сигналов, ситуаций и т. п. объектов, которые характеризуются конечным набором некоторых свойств и признаков. Такие задачи решаются довольно часто, например, при переходе или проезде улицы по сигналам светофора. Распознавание цвета загоревшейся лампы светофора и знание правил дорожного движения позволяет принять правильное решение о том, можно…

Обучение без учителя (самообучение, спонтанное обучение, англ. Unsupervised learning) — один из способов машинного обучения, при котором испытуемая система спонтанно обучается выполнять поставленную задачу без вмешательства со стороны экспериментатора. С точки зрения кибернетики, это является одним из видов кибернетического эксперимента. Как правило, это пригодно только для задач, в которых известны описания множества объектов (обучающей выборки), и требуется обнаружить внутренние взаимосвязи, зависимости…

Демпстера-Шафера теория — математическая теория очевидностей (свидетельств) (), основанная на функции доверия (belief functions) и функции правдоподобия (plausible reasoning), которые используются, чтобы скомбинировать отдельные части информации (свидетельства) для вычисления вероятности события. Теория была развита Артуром П. Демпстером и Гленном Шафером.

Выявленное предпочтение — предпочтение, информация о котором получена в результате наблюдения за поведением экономического агента. Концепция выявленных предпочтений — это один из методов моделирования потребительского поведения в условиях определённости, который был предложен в 1938 году американским экономистом Полом Самуэльсоном. Метод основан на том, что у агентов имеются определённые устойчивые предпочтения, в соответствии с которыми они осуществляют выбор.

Подробнее: Выявленные предпочтения

Обучение ассоциативным правилам или поиск ассоциативных правил — это метод обучения машин на базе правил обнаружения интересующих нас связей между переменными в большой базе данных. Метод предлагается для установления сильных правил, обнаруженных в базе данных с помощью некоторых мер интересности. Этот основанный на правилах подход генерирует также новые правила по мере анализа дополнительных данных. Конечной целью, исходя из достаточно большого набора данных, помочь машине имитировать выделение…

Случайность имеет множество применений в области науки, искусства, статистики, криптографии, игр, азартных игр, и других областях. Например, случайное распределение в рандомизированных контролируемых исследованиях помогает ученым проверять гипотезы, а также случайные и псевдослучайные числа находят применение в видео-играх, таких как видеопокер.

Подробнее: Применения случайности

Принцип минимальной длины описания (англ. minimum description length, MDL) — это формализация бритвы Оккама, в которой лучшая гипотеза (модель и её параметры) для данного набора данных это та, которая ведёт к лучшему сжиманию даных. Принцип MDL предложил Йорма Риссанен в 1978. Принцип является важной концепцией в теории информации и теории вычислительного обучения.

Выборочное представление фактов, избирательный подход, выборочное цитирование или черри-пикинг (англ. cherry picking, досл. «сбор вишенок») — логическая ошибка, состоящая в указании на отдельные случаи либо данные, подтверждающие определённое положение, при игнорировании значительной части связанных случаев или данных, которые могут противоречить этому положению. Может быть как умышленным, так и неумышленным.

Ошибка хайндсайта (англ. hindsight bias; в русскоязычной литературе распространено написание «хиндсайт») (другие названия: феномен «я знал это с самого начала» / «я так и знал» / «Так я и знал!» (англ. I-knew-it-all-along), суждение задним числом, ретроспективный детерминизм, ретроспективное искажение) — это склонность воспринимать события, которые уже произошли, или факты, которые уже были установлены, как очевидные и предсказуемые, несмотря на отсутствие достаточной первоначальной информации для…

Тест руки (Hand test, тест руки Вагнера) — проективная методика исследования личности, разработанная в 1962 году Эдвином Е. Вагнером. Система подсчета баллов и коэффициенты разработаны 3. Пиотровским и Б. Бриклин, в России тест адаптирован Т.Н. Курбатовой.

Эвристика доступности (англ. availability heuristic) — это интуитивный процесс, в котором человек «оценивает частоту или возможность события по легкости, с которой примеры или случаи приходят на ум», т. е. легче вспоминаются. При подобной оценке человек полагается на ограниченное количество примеров или случаев. Это упрощает комплексную задачу оценки вероятности и прогнозирования значимости события до простых суждений, основанных на собственных воспоминаниях, поэтому такой процесс является необъективным…

Приня́тие жела́емого за действи́тельное — формирование убеждений и принятие решений в соответствии с тем, что является приятным человеку, вместо апелляции к имеющимся доказательствам, рациональности или реальности.

Когнитивная гибкость (англ. cognitive flexibility) — умственная способность переключаться с одной мысли на другую, а также обдумывать несколько вещей одновременно. Общепринятого операционального определения этого понятия не существует, но исследователи сходятся в том, что когнитивная гибкость является компонентом исполнительной системы. Объектами исследований в этом направлении, в основном, становились дети школьного возраста, хотя индивидуальные различия проявляются на протяжении всей жизни. Мерами…

Тематический апперцептивный тест (англ. Thematic apperception test (TAT)) — проективная психодиагностическая методика, разработанная в 1930-х в Гарварде Генри Мюрреем и Кристианой Морган. Целью методики являлось исследование движущих сил личности — внутренних конфликтов, влечений, интересов и мотивов. После второй мировой войны тест стал широко применяться психоаналитиками и клиницистами для работы с нарушениями в эмоциональной сфере пациентов.

Коэффициент Байеса — это байесовская альтернатива проверке статистических гипотез. Байесовское сравнение моделей — это метод выбора моделей на основе коэффициентов Байеса. Обсуждаемые модели являются статистическими моделями. Целью коэффициента Байеса является количественное выражение поддержки модели по сравнению с другой моделью, независимо от того, верны модели или нет. Техническое определение понятия «поддержка» в контексте байесовского вывода дано ниже.

Обучение на примерах (англ. Learning from Examples) — вид обучения, при котором интеллектуальной системе предъявляется набор положительных и отрицательных примеров, связанных с какой-либо заранее неизвестной закономерностью. В интеллектуальных системах вырабатываются решающие правила, с помощью которых происходит разделение множества примеров на положительные и отрицательные. Качество разделения, как правило, проверяется экзаменационной выборкой примеров.

Семантическая информация — смысловой аспект информации, отражающий отношение между формой сообщения и его смысловым содержанием.

Объяснение является набором утверждений, обычно построенных для описания набора фактов, в которых уточняются причины, контекст и последствия этих фактов. Это описание может устанавливать правила или законы и может разъяснять существующие правила и/или законы в отношении объектов и явлений, которые рассматриваются. Компоненты объяснения могут быть неявными и быть переплетены друг с другом.

В психологии эвристика беглости — это ментальная эвристика, в которой, если один объект обрабатывается плавнее или быстрее другого,то этот объект имеет более высокое значение в отношении рассматриваемого вопроса. Другими словами, чем более умело или изящно идея передается, тем вероятней, что её следует рассматривать серьезно, независимо от того, логична она или нет.

Трансдуктивное обучение (англ. transductive inference) — полу-контролируемое обучение (частичное обучение), обучение с частичным привлечением учителя, когда прогноз предполагается делать только для прецедентов из тестовой выборки.

Выбор модели — это задача выбора статистической модели из набора моделей-кандидатов по имеющимся данным. В простейшем случае рассматривается существующий набор данных. Однако задача может вовлекать планирование экспериментов, так что сбор данных связан с задачей выбора модели. Если заданы кандидаты в модели с одинаковой силой предсказания или объяснения, наиболее простая модель скорее всего будет лучшим выбором (бритва Оккама).

Закон Парето (принцип Парето, принцип 80/20) — эмпирическое правило, названное в честь экономиста и социолога Вильфредо Парето, в наиболее общем виде формулируется как «20 % усилий дают 80 % результата, а остальные 80 % усилий — лишь 20 % результата». Может использоваться как базовая установка в анализе факторов эффективности какой-либо деятельности и оптимизации её результатов: правильно выбрав минимум самых важных действий, можно быстро получить значительную часть от планируемого полного результата…

Разрешение лексической многозначности (word sense disambiguation, WSD) — это неразрешенная проблема обработки естественного языка, которая заключается в задаче выбора значения (или смысла) многозначного слова или словосочетания в зависимости от контекста, в котором оно находится. Данная задача возникает в дискурсивном анализе, при оптимизации релевантности результатов поисковыми системами, при разрешении анафорических отсылок, в исследовании лингвистической когерентность текста, при анализе умозаключений…

Методика сопряженных моторных реакций — психофизиологическая методика, созданная А. Р. Лурией, направленная на определение нервно-психического состояния испытуемого. Основывается на методе свободных ассоциаций…

Эффект сверхуверенности (англ. overconfidence effect) — когнитивное искажение, при котором уверенность человека в своих действиях и решениях значительно выше, чем объективная точность этих суждений. Также выражается в льстивом представлении о себе.

Дифференциальная приватность — совокупность методов, которые обеспечивают максимально точные запросы в статистическую базу данных при одновременной минимизации возможности идентификации отдельных записей в ней.

Машина вывода — программа, которая выполняет логический вывод из предварительно построенной базы фактов и правил в соответствии с законами формальной логики.

Индуктивное логическое программирование (Inductive Logic Programming, ILP) — раздел машинного обучения, который использует логическое программирование как форму представления примеров, фоновых знаний и гипотез. Получив описания уже известных фоновых знаний и набор примеров, представленных как логическая база фактов, система ILP может породить логическую программу в форме гипотез, объясняющую все положительные примеры и ни одного отрицательного.

Логическая ошибка — в логике, философии и прочих науках, изучающих познание, ошибка, связанная с нарушением логической правильности умозаключений. Ошибочность обусловлена каким-либо логическим недочётом в доказательстве, что делает доказательство в целом неверным.

Логика Бэрроуза — Абади — Нидхэма (англ. Burrows-Abadi-Needham logic) или BAN-логика (англ. BAN logic) — это формальная логическая модель для анализа знания и доверия, широко используемая при анализе протоколов аутентификации.

Двухфа́кторная тео́рия эмо́ций — социально-психологическая теория, рассматривающая эмоции как сочетания двух компонентов (факторов): физиологического возбуждения и когнитивной интерпретации этого возбуждения.

Обобще́ние поня́тий — логическая операция, посредством которой в результате исключения видового признака получается другое понятие более широкого объема, но менее конкретного содержания; форма приращения знания путём мысленного перехода от частного к общему в некоторой модели мира, что обычно соответствует и переходу на более высокую ступень абстракции. Результатом логической операции обобщения является гипероним.

Надёжностью называется один из критериев качества теста, его устойчивость по отношению к погрешностям измерения. Различают два вида надёжности — надёжность как устойчивость и надёжность как внутреннюю согласованность.

Подробнее: Надёжность психологического теста

Ошибка на единицу или ошибка неучтённой единицы (англ. off-by-one error) — логическая ошибка в алгоритме, включающая в частности дискретный вариант нарушения граничных условий.

Функциональная закреплённость (функциональная фиксированность) — психологический феномен, открытый и описанный Карлом Дункером.

Неуверенные данные встречается в области сенсорных сетей; тексты с шумом в изобилии встречаются в социальных сетях, интернете и на предприятиях, где структурированные и неструктурированные данные могут быть старыми, устаревшими или попросту некорректными; в моделировании, когда математическая модель способна быть лишь приближением реального процесса. При представлении таких данных в базе данных, указание вероятностии корректности различных значений также должно быть произведено.

Пять почему — техника, используемая для изучения причинно-следственных связей, лежащих в основе той или иной проблемы. Основной задачей техники является поиск первопричины возникновения дефекта или проблемы с помощью повторения одного вопроса — «Почему?». Каждый последующий вопрос задаётся к ответам на предыдущий вопрос. Количество «5» подобрано эмпирическим путём и считается достаточным для нахождения решения типичных проблем.

Понравилась статья? Поделить с друзьями:
  • Систематическая ошибка погрешность
  • Система оценивания ошибки оценивания
  • Система отслеживания ошибок это
  • Система отопления ленинградка ошибки монтажа
  • Система обработки ошибок