Ошибка техасского стрелка что это

hero photo

Елена Лебедева

divider

Junior Business Analyst, кандидат экономических наук, методолог образовательных проектов

«Понимание человека, когда он уже пришёл к какой-то мысли… притягивает все вещи для её поддержки и согласования с ней. И хотя существует большое количество и вес аргументов с другой стороны, ими он пренебрегает или презирает, или по каким-то признакам отставляет или отвергает…»

Ф. Бэкон

«Мы говорим совершенно на разных языках!» — такое полное возмущения восклицание можно услышать в повседневном диалоге, когда одна сторона кажется полностью глухой к доводам и аргументам другой стороны. Особенно раздражает, когда собеседник интерпретирует все факты таким образом, чтобы подтвердить только собственные убеждения. Но не торопитесь браться за топор коммуникационной войны, возможно, вы столкнулись с когнитивным искажением — ошибкой техасского стрелка.

Оно получило своё название из анекдота про техасца, который сначала стрелял по амбару, а потом рисовал мишень в том месте, где было больше всего пробоин.

Ошибка техасского стрелка — это частный случай когнитивного искажения, которое связано со склонностью людей подтверждать свою точку зрения. Оно вызвано предрасположенностью человека воспринимать только ту информацию, которая поддерживает и подтверждает его убеждения. Все остальные факты, которые ставят его точку зрения под сомнение или опровергают её, он игнорирует или оспаривает.

Как проявляется это когнитивное искажение

Если у человека есть склонность к подтверждению, обычно он воспринимает информацию по определённому алгоритму:

  • ищет и изучает только ту информацию, которая подкрепляет существующее мнение;
  • интерпретирует факты таким образом, чтобы они поддерживали его точку зрения;
  • запоминает только «нужные» факты и не обращает внимания на то, что противоречит его убеждениям.

Таким образом, человек с этим когнитивным искажением воспринимает только те факты, которые соответствуют его «мишени». Часто он связывает между собой совершенно несвязанные события.

Ключевую роль играет накопленный опыт и эмоциональный отклик на ситуацию: чем больше эмоций, тем меньше логики. Ведь если нам что-то очень нравится (человек, технология, мысль) в силу каких-либо причин, мы будем всячески это защищать, подбирая только аргументы за.

Примеры проявления ошибки техасского стрелка:

  • Ваш коллега абсолютно уверен, что использование технологии Х оправдано в любой ситуации. Ваши попытки привести контраргументы и убедить коллегу в обратном заканчиваются конфликтами.
  • Руководитель уверен, что команда показывает плохие результаты, потому что подчиненные недостаточно умные и компетентные. Попытки подсветить другие причины (организационного, технического или иного характера) он воспринимает в штыки или игнорирует.
  • Заказчик хочет получить не объективный анализ текущего положения дел, а подтверждение своей точки зрения на сложившуюся ситуацию. Честный и объективный анализ, который идёт вразрез с мнением заказчика, будет восприниматься как дилетантство.
  • При работе с заказчиком учитываются только те данные и аналитическая информация, которые соответствуют его запросу и коммерческому предложению, а достигнутые результаты трактуются как желаемые.

Примечательно, что ошибка техасского стрелка часто встречается в различного рода исследованиях, в том числе научных. Например, некая компания Х проводит испытания своего продукта. Но в рекламную кампанию попадут только те результаты, которые подтверждают положительные свойства продукта, а все остальные данные останутся за кадром.

Из-за этой ошибки мышления человек иногда специально ведёт себя определенным образом, чтобы получить «нужный» результат и пополнить свою копилку искаженных фактов. Например, некорректно используя какой-либо фреймворк, он будет каждый раз убеждаться в том, что этот фреймворк «не работает».

Ошибка техасского стрелка мешает принимать взвешенные решения и профессионально развиваться, потому что из-за этой ошибки мышления:

  • игнорируются новые инструменты и технологии;
  • принимаются неэффективные управленческие решения;
  • возникают сложности коммуникаций в команде.

Люди, подверженные этому когнитивному искажению, не всегда готовы вести конструктивный диалог и прислушиваться к мнению со стороны. Им гораздо проще продолжать жить со старым убеждением, чем встать на тропу изменений.

Признавать неправоту сложно, потому что это заставляет меняться:

  • изучать информацию, которая находится за пределами существующего убеждения, анализировать ее, формировать новое суждение (например, начать изучать и применять новую технологию);
  • менять свое поведение и работать над собой (например, когда человек осознает, что он сам был источником проблемы); нести ответственность за свои поступки;
  • переосмысливать парадигму сложившейся картины мира, если искажение сильно повлияло на человека.

Но, как вы знаете, наш мозг очень не любит тратить энергию и всячески пытается ее сберечь, поэтому от этого искажения особенно сложно избавиться.

Что делать, если вы столкнулись с ошибкой техасского стрелка

В зависимости от цели коммуникации можно выбрать разные стратегии: от осознанного поддержания правоты человека до избегания общения с ним по спорному вопросу. В ситуации, когда нужно прийти к общему знаменателю, можно попробовать следующие приёмы:

  • Попросите собеседника изложить своё понимание ситуации. После этого задайте наводящие вопросы, которые подсветят неточность суждений собеседника и помогут ему как бы самому прийти к другой точке зрения.
  • Попросите собеседника поставить себя на место человека с другой точкой зрения. Это позволит найти компромиссное решение.

Эти приёмы могут сработать, если собеседник изначально настроен на конструктивный диалог. Если он не готов к подобным беседам, можно попробовать договориться сделать что-то вместе, например, использовать инструмент Х на проекте. Тогда личным примером можно показать, как это работает на практике, и изменить мнение у оппонента.

Если вы заметили такое искажение у себя, мои поздравления! Вы явно способны к самоанализу и саморазвитию. Вы на правильном пути.


Когнитивные искажения не существуют сами по себе. Они часть целого механизма восприятия и обработки информации, который работает в конкретных социально-экономических условиях и определен жизненным опытом конкретного человека. Поэтому стоит рассматривать проявления ошибки техасского стрелка вместе с ситуацией, в которой оно возникло, и особенностями человека, который подвержен этому искажению.

В следующих статьях мы продолжим разбирать когнитивные искажения с примерами из IT.

From Wikipedia, the free encyclopedia

The Texas sharpshooter fallacy is an informal fallacy which is committed when differences in data are ignored, but similarities are overemphasized. From this reasoning, a false conclusion is inferred.[1] This fallacy is the philosophical or rhetorical application of the multiple comparisons problem (in statistics) and apophenia (in cognitive psychology). It is related to the clustering illusion, which is the tendency in human cognition to interpret patterns where none actually exist.

The name comes from a joke about a Texan who fires some gunshots at the side of a barn, then paints a shooting target centered on the tightest cluster of hits and claims to be a sharpshooter.[2][3][4]

Structure[edit]

A set of 100 randomly generated coordinates displayed on a scatter graph. Examining the points it is easy to identify apparent patterns. In particular, random data points do not spread out but cluster, giving the impression of «hot spots» created by some underlying cause.

The Texas sharpshooter fallacy often arises when a person has a large amount of data at their disposal but only focuses on a small subset of that data. Some factor other than the one attributed may give all the elements in that subset some kind of common property (or pair of common properties, when arguing for correlation). If the person attempts to account for the likelihood of finding some subset in the large data with some common property by a factor other than its actual cause, then that person is likely committing a Texas sharpshooter fallacy.

The fallacy is characterized by a lack of a specific hypothesis prior to the gathering of data, or the formulation of a hypothesis only after data have already been gathered and examined.[5] Thus, it typically does not apply if one had an ex ante, or prior, expectation of the particular relationship in question before examining the data. For example, one might, prior to examining the information, have in mind a specific physical mechanism implying the particular relationship. One could then use the information to give support or cast doubt on the presence of that mechanism. Alternatively, if additional information can be generated using the same process as the original information, one can use the original information to construct a hypothesis, and then test the hypothesis on the new data. (See hypothesis testing.) What one cannot do is use the same information to construct and test the same hypothesis (see hypotheses suggested by the data)—to do so would be to commit the Texas sharpshooter fallacy.

Examples[edit]

A Swedish study in 1992 tried to determine whether power lines caused some kind of poor health effects.[6] The researchers surveyed people living within 300 meters of high-voltage power lines over 25 years and looked for statistically significant increases in rates of over 800 ailments. The study found that the incidence of childhood leukemia was four times higher among those who lived closest to the power lines, and it spurred calls to action by the Swedish government.[7] The problem with the conclusion, however, was that the number of potential ailments, i.e., over 800, was so large that it created a high probability that at least one ailment would exhibit the appearance of a statistically significant difference by chance alone, a situation known as the multiple comparisons problem. Subsequent studies failed to show any association between power lines and childhood leukemia.[8]

The fallacy is often found in modern-day interpretations of the quatrains of Nostradamus. Nostradamus’s quatrains are often liberally translated from the original (archaic) French, stripped of their historical context, and then applied to support the conclusion that Nostradamus predicted a given modern-day event after the event actually occurred.[9]

See also[edit]

  • Anthropic principle – Philosophical principle about the occurrence of sapient life in the Universe
  • Availability heuristic – Heuristic bias that if something can be recalled, it must be important
  • Confirmation bias – Bias confirming existing attitudes
  • Data dredging – Misuse of data analysis, also known as p-hacking
  • HARKing – Acronym for «Hypothesizing after the results are known»
  • Look-elsewhere effect
  • Overfitting – Flaw in machine learning computer model
  • Postdiction – Explanations given after the fact
  • Ramsey theory – Branch of mathematical combinatorics
  • Scan statistic

[edit]

  • Correlative-based fallacies – Informal fallacies based on correlative conjunctions
  • Cum hoc ergo propter hoc – Refutation of a logical fallacy
  • Paul the Octopus – Common octopus who predicted the results of association football matches
  • Post hoc ergo propter hoc – Fallacy of assumption of causality based on sequence of events

References[edit]

  1. ^ Bennett, Bo, «Texas sharpshooter fallacy», Logically Fallacious, retrieved 21 October 2014, description: ignoring the difference while focusing on the similarities, thus coming to an inaccurate conclusion
  2. ^ Barry Popik (2013-03-09). «Texas Sharpshooter Fallacy». barrypopik.com. Retrieved 2015-11-10.
  3. ^ Atul Gawande (1999-08-02). «The cancer-cluster myth» (PDF). The New Yorker. Retrieved 2009-10-10.
  4. ^ Carroll, Robert Todd (2003). The Skeptic’s Dictionary: a collection of strange beliefs, amusing deceptions, and dangerous delusions. John Wiley & Sons. p. 375. ISBN 0-471-27242-6. Retrieved 2012-03-25. The term refers to the story of the Texan who shoots holes in the side of a barn and then draws a bull’s-eye around the bullet holes
  5. ^ Thompson, William C. (July 18, 2009). «Painting the target around the matching profile: the Texas sharpshooter fallacy in forensic DNA interpretation». Law, Probability, & Risk. 8 (3): 257–258. doi:10.1093/lpr/mgp013. Retrieved 2012-03-25. Texas sharpshooter fallacy…this article demonstrates how post hoc target shifting occurs and how it can distort the frequency and likelihood ratio statistics used to characterize DNA matches, making matches appear more probative than they actually are.
  6. ^ Feychting, M.; Ahlbom, A. (1993-10-01). «Magnetic fields and cancer in children residing near Swedish high-voltage power lines». American Journal of Epidemiology. 138 (7): 467–481. doi:10.1093/oxfordjournals.aje.a116881. ISSN 0002-9262. PMID 8213751.
  7. ^ Coghlan, Andy. «Swedish studies pinpoint power line cancer link». New Scientist.
  8. ^ «Frontline: previous reports: transcripts: currents of fear». PBS. 1995-06-13. Archived from the original on 2016-02-03. Retrieved 2012-07-03.
  9. ^ «Nostradamus Predicted 9/11?». snopes.com. 12 September 2001. Retrieved 2012-07-03.

External links[edit]

  • Fallacy files entry

Ошибка меткого стрелка: причина vs следствие


и

Психолог, гештальт-терапевт. Консультирует с 2015 года


  1. В чем ошибка меткого стрелка?
  2. Как бороться с этой ловушкой мышления?

Ошибка меткого стрелка, или как ее иногда называют, ошибка техасского стрелка, – интересное когнитивное искажение (ловушка мышления), которое находит достаточно частое «применение» в нашей жизни. Рассмотрим, в чем оно заключается и что с ним делать.

В чем ошибка меткого стрелка?

Название ошибки происходит от анекдота про техасца, который якобы сначала стрелял, а потом рисовал мишень вокруг стрел так, чтобы каждая была точно в яблочко. На практике данная ловушка мышления заключается в том, что, рассматривая какой-либо вопрос, мы принимаем во внимание только те факты, что вписываются в нашу теорию или объяснение происходящего, подходят нашим рассуждениям, а остальные отбрасываем. В более узком варианте – когда мы берем сходные данные, подходящие под некую закономерность, а те, что в нее не укладываются, игнорируем.

Другое когнитивное искажение, при котором рассмотрение только части данных приводит к неверным выводам и которое также часто встречается в реальной жизни, – систематическая ошибка выжившего.

Один из самых ярких примеров, иллюстрирующих ошибку стрелка, – предсказания. Постфактум из множества предсказаний одного или нескольких ясновидящих всегда можно найти несколько сбывшихся или почти сбывшихся – и за счет этого поверить в силу предсказателя: якобы он действительно знал будущее наперед. Или же можно подобрать к сказанным в прошлом метафорическим фразам такие «ключи», которые объяснят те или иные события – но лишь тогда, когда они уже произойдут.

Ошибка меткого стрелкаПочему провести «анализ» таких предсказаний можно только после того, как они свершатся? Потому что до этого вы просто не знаете, что и как именно интерпретировать, чтобы выстроить правдоподобное объяснение. Но по логике предсказания работают наоборот: они должны говорить о будущем, а не оправдываться, когда все уже произошло. Именно так мы и попадаем в ловушку мышления стрелка, который сначала стрелял, а потом рисовал мишень. Иными словами, мы меняем местами то, что должно быть до (предсказание, объясняющее будущее событие) и после (само событие), чтобы доказать теорию («Этот предсказатель знает будущее»).

Другой пример – нахождение взаимосвязи там, где ее нет. Например, популярно мнение, что високосные года тяжелее невисокосных. В подтверждение приводятся несчастья, которые случались в года, когда отмечается 29 февраля. Проблема только в том, что, к сожалению, и в другие года случается так же много несчастий. Но в «выборку» попадает только часть данных, остальные игнорируются.

Ошибка стрелка - ловушка мышленияВ целом эта ошибка рассказывает далеко не только о теориях заговора, предсказаниях или приметах. На самом деле аналогичное искажение может возникнуть как быту, так и на работе – в самых разных ситуациях, когда мы строим какую-либо теорию или выстраиваем взаимосвязь. Например, что окончание престижного вуза гарантирует получение высокооплачиваемой работы. Да, можно найти множество примеров, где это предположение сработало. Но также существует множество примеров, где оно не сработало. Таким образом, сам по себе диплом престижного вуза еще не гарант высокой зарплаты.

Аналогично для анализа проекта клиента и выстраивания стратегии работы можно взять только те статистические данные, которые впишутся в ваш план. А потом можно сказать, что достигнутые результаты – это и есть на самом деле то, чего вы хотели добиться (то есть нарисовать мишень вокруг стрелы).

Тренируйте память, внимание и другие софт-скиллс на Викиум.ру

Викиум

Что делать с ошибкой стрелка?

Прежде всего, стоит помнить, что когнитивные искажения возникают непредумышленно – поэтому они и называются ловушками мышления. Это особенность работы мозга, которую не всегда просто отследить. Однако данную ошибку, как и другие, можно исправить, если контролировать себя. Например, анализируя ту или иную теорию или причинно-следственную связь, старайтесь проверять себя – точно ли все факты рассмотрены? Все ли они вписываются в теорию? Если не все, то почему?

Как правило, чем больший эмоциональный отклик находит теория, тем чаще логика уходит на второй план, и мы подвластны большему количеству когнитивных искажений. Иными словами, если теория нам нравится, мы не доказываем ее, а стараемся подогнать под нее факты, игнорируя то, что грозится ее разрушить. Следите за причинно-следственной связью: сначала собирайте факты, потом стройте теорию, а не наоборот.

Как говорил Конан-Дойль устами Шерлока Холмса, «теоретизировать, не имея данных, значит совершать грубейшую ошибку. Незаметно для себя человек начинает подгонять факты к своей теории, вместо того чтобы строить теорию на фактах».

Также важно помнить два постулата:

  • если события А и Б произошли в одно и то же время, это еще не значит, что они связаны;
  • если Б произошло после А, это еще не значит, что А послужило причиной Б.

Нам свойственно выстраивать причинно-следственные связи, потому что это снижает уровень хаоса и повышает чувство контроля (в том числе тех вещей, которые мы контролировать априори не можем). Однако на самом деле некоторые события и факты – не более чем совпадения. О них расскажет и другая ошибка – ошибка игрока.


Поделиться статьей:


Понравилась статья? Поделить с друзьями:
  • Ошибка соната p0507
  • Ошибка соломенного человека
  • Ошибка сомнительного позиционирования означает что
  • Ошибка солярис р0304 хендай солярис
  • Ошибка солярис p0300 p0303