Систематическая ошибка согласованности

Ошибочность рассуждений, вызванная эффектом подтверждения (Confirmation bias, Систематическая ошибка согласованности) — тенденция проверять гипотезы исключительно путём прямого тестирования, вместо того, чтобы тестировать возможные альтернативные гипотезы

«Не предлагайте решения, до тех пор, пока проблема не будет исследована
так тщательно, как это только возможно»

В 1960 году Питер Уосон (Peter Wason) провел ныне классический эксперимент, известный как задача ‘2-4-6’ [Wason, 1960.] Испытуемые должны были определить правило, известное экспериментатору, но не самому испытуемому — так, как оно бывает при научном исследовании. Испытуемые писали три числа, таких как ‘2-4-6′ или ’10-12-14’ на карточках, и экспериментатор говорил, соответствуют ли данные три числа правилу или нет. Изначально субъектам была выдана тройка чисел 2-4-6 и сказано, что она соответствует правилу. Испытуемые могли продолжать испытывать тройки до тех пор, пока они не чувствовали себя уверенными, что знают правило экспериментатора, и тогда испытуемым объявляли правило.
Хотя участники обычно выражали высокую уверенность в своих догадках, только 21% из них в этом эксперименте правильно угадали правило, и при повторениях эксперимента уровень успеха обычно составлял 20%. Вопреки совету Карла Поппера, испытуемые в эксперименте Уосона пытались подтвердить свои гипотезы, а не опровергнуть. Таким образом, те, кто сформулировали гипотезу «Числа увеличиваются каждый раз на два», проверяли тройки 8-10-12 или 20-22-24, слышали, что они подходят, и уверенно объявляли правило. Во всех случаях подлинное правило было одно и тоже: три номера должны следовать один за другим по возрастающей. В некоторых случаях испытуемые выдумывали, «тестировали» и объявляли правила, гораздо более сложные, чем действительное.

Задача Уосона «2-4-6» является «прохладной» формой интеллектуальной ошибки, связанной с подтверждением: люди предпочитают подтверждающие, а не опровергающие свидетельства. «Прохладный» означает, что задача «2-4-6» является эмоционально нейтральным случаем интеллектуальной ошибки подтверждения: вывод подтверждается логикой, а не эмоциями. «Горячий» случай имеет место, когда вера эмоционально заряжена, например, в случае политических рассуждений. Неудивительно, что «горячая» ошибочность сильнее — больше по размаху и более устойчивая к изменениям. Активная, полная усилий склонность к подтверждению обычно называется мотивированным мышлением (motivated cognition) (обычно известным как «рационализация»). Как отмечает Бреннер [Brenner, 2002] в «Заметках к теории одобрения»:

«Очевидно, что во многих обстоятельствах желание уверенности в гипотезе может заметно повлиять на воспринимаемую степень ее подтверждения… Канда [Kunda, 1990] обсуждает, как люди, нацеленные на то, чтобы достичь определенных выводов, пытаются сконструировать (в ошибочной манере) убедительный случай для своей любимой гипотезы, который мог бы убедить беспристрастную аудиторию. Джилович [Gilovich, 2000] предполагает, что выводы, в которые человек не хочет верить, рассматриваются гораздо требовательнее, чем те, в которые он хочет верить. В первом случае человек требует, чтобы свидетельство с необходимостью вело к данному выводу, а во втором — спрашивает, позволяет ли некоторое свидетельство придти к данному выводу».

Когда люди подвергают те свидетельства, которые противоречат их точке зрения, более пристрастному анализу, чем те, которые ее подтверждают, это называется мотивированный скептицизм или интеллектуальная ошибка несогласия (disconfirmation bias). Ошибка несогласия особенно деструктивна по двум причинам: во-первых, два подверженных этой ошибке спорщика, рассматривая один и тот же поток свидетельств, могут изменить свою веру в противоположных направлениях — обе стороны выборочно принимают только привлекательные для них свидетельства. Накопление большего числа свидетельств не приведет этих спорщиков к согласию. Во-вторых, люди, которые являются более опытными скептиками: которые знают больший набор логических нестыковок, но применяют этот навык избирательно, могут изменять свою точку зрения гораздо медленнее, чем неопытные спорщики
Тэйбер и Лодж [Taber and Lodge, 2000] исследовали изначальное отношение и изменение отношения у студентов, под воздействием прочтения политической литературы за и против контроля и выдачи разрешений на оружие. Это исследование проверило шесть следующих гипотез в двух экспериментах:

* Эффект предшествующего отношения. (Prior attitude effect.) Испытуемые, имевшие изначальную точку зрения на проблему — даже когда их поощряли в том, чтобы они были объективными — находили поддерживающие аргументы более охотно, чем опровергающие.

* Систематическая ошибка опровержения. Испытуемые тратили больше времени и умственных усилий, стараясь отклонить опровергающие аргументы, чем поддерживающие аргументы.

* Систематическая ошибка подтверждения. Испытуемые, свободные выбирать источники информации, скорее искали подтверждающие, чем опровергающие источники.

* Поляризация отношения. Предъявление субъектам очевидно уравновешенного набора аргументов за и против приводило к увеличению изначальной поляризации их мнений.

* Эффект силы мнения (Attitude strength effect). Испытуемые, имеющие более ярко выраженное мнение, были более подвержены вышеназванным склонностям к ошибке.

* Эффект усложнения. (Sophistication effect) Более искушенные в политике испытуемые, по причине обладания более тяжелым вооружением для опровержения противных фактов и доводов, были более подвержены вышеприведенным систематическим ошибкам.

Забавно, что эксперименты Тэйбера и Лоджа (Taber and Lodge) подтвердили все шесть изначальных гипотез авторов. Вы можете сказать: «Вероятно, эти эксперименты только отражают верования, на которые опирались их авторы, и это как раз пример систематической ошибки подтверждения». Если так, то, сделав вас более опытным спорщиком, а именно, научив вас еще одной систематической ошибке, в которой можно обвинить людей, я, в действительности, навредил вам: я ослабил вашу реакцию на новую информацию. Я дал вам еще один шанс всякий раз терпеть неудачу, когда вы сталкиваетесь с возможностью изменить свой стиль мышления.

Модели рассуждения и систематические ошибки широко распространены в человеческих размышлениях. Их знание позволяет нам замечать большое разнообразие логических ошибок, которые, в противном случае, были бы недоступны для нашего наблюдения. Но, как и любая способность обнаруживать ошибки в рассуждениях, это знание должно применяться обоюдосторонне: как к нашим собственным идеям, так и к идеям других; к идеям, которые нам нравятся, и которые нам не нравятся. Знание человеческой склонности ошибаться — это опасное знание, если вы напоминаете себе об ошибочности тех, кто не согласен с вами. Если я избирателен в отношении тех аргументов, которые я исследую на предмет ошибок, или даже того, насколько глубоко я исследую эти ошибки, тогда каждый новый закон логики, каждая новая логическая несообразность, которую я научаюсь обнаруживать, делает меня глупее. Ум, чтобы быть полезным, должен быть использован не для того, чтобы дурачить самого себя.

Нельзя рационализировать то, что не рационально с самого начала — как если ложь назвать «правдизацией». Нельзя сделать утверждение более истинным посредством взяточничества, лести или даже страстной аргументации — можно заставить больше людей верить в утверждение, но нельзя сделать его вернее. Для того, чтобы сделать наши верования более истинными, мы должны изменить сами эти верования. Не каждое изменение — это улучшение, но каждое улучшение — это изменение по определению.

Наши верования гораздо более подвижны, чем мы привыкли думать. Гриффин и Тверский [Griffin and Tversky, 1992] осторожно опросили 24-х своих коллег на тему выбора между двумя предложениями по работе и попросили их оценить вероятность того, что они его выберут, для каждого из предложений. Средняя вероятность выбора, высказанная в отношении более привлекательного предложения, составила умеренные 66%. Но только один из 24 опрошенных выбрал в конечном счетt вариант, которому он приписал в начале более низкую вероятность, увеличив общую точность предсказания до 96 процентов. (Это — один из немногих известных примеров, когда имеет место не «сверх-уверенность», а «недо-уверенность».)

Мораль в том, что как только вы начинаете догадываться, каков будет ваш ответ, как только вы приписываете большую вероятность тому, что вы ответите так, а не иначе, вы, на самом деле, уже решили. И если вы будете честны с самим собой, вы должны признать, что обычно вы догадываетесь об окончательном ответе через секунды после того, как услышите вопрос. Мы меняем наши мнения гораздо реже, чем мы думаем. Насколько скоротечен этот короткий незаметный момент, когда мы даже не можем догадаться, каков будет наш ответ, малюсенькое хрупкое мгновение, которое нам отведено, чтобы на самом деле подумать — как в вопросах выбора, так и в вопросах установления фактов.

Шенкель (Shenkel) говорил: «Нет необходимости в вере, пока ситуация может быть легко рассмотрена тем или другим образом».

Норман Майер (Norman R. F. Maier): «Не предлагайте решения, до тех пор, пока проблема не будет исследована так тщательно, как это только возможно».

Робин Доуз (Robyn Dawes), комментируя Майера, писал: «Я часто предлагал это правило группам, которые я вел, в частности, когда они сталкивались с особенно трудной проблемой. Это — типичная ситуация, когда члены группы особенно склонны предлагать мгновенные решения».

В компьютерной безопасности «система, которой доверяют» (trusted system) — это та, которой вы на самом деле доверяете, а не та, которая достойна доверия. «Система, которой доверяют» — это система, которая, будучи скомпрометированной, способна вызвать ошибку. Когда вы читаете статью, утверждающую, что глобальная катастрофа невозможна, или имеет определенную годовую вероятность, или может быть преодолена с использованием определенной стратегии — вы доверяете рациональности авторов. Вы доверяете способности авторов переходить от удобных выводов к неудобным, даже в случае отсутствия сногсшибательных экспериментальных свидетельств, опровергающих любимую гипотезу. Вы доверяете авторам в том, что они не искали немного более интенсивно ошибки в тех уравнениях, которые указывали на неверный, с их точки зрения, путь, до того, как к вам попал окончательный вариант статьи.

И если власти вводят закон, по которому даже мельчайший риск существованию человечества достаточен для того, чтобы закрыть проект; или если становится нормой политики де-факто, что ни одно возможное вычисление не может перевесить груз однажды высказанного предположения, то тогда ни один ученый не рискнет больше высказывать предположения. Я не знаю, как решить эту проблему. Но я думаю, что тем, кто оценивает глобальные риски, следует иметь общие представления о человеческих моделях рассуждений и систематических ошибках при рассуждениях, и об ошибке неподтверждения в частности.

Систематическая ошибка согласованности – это явление, когда люди допускают противоречивые суждения об одном и том же объекте, но не замечают этого. Она проявляется в разных сферах жизни, от принятия решений на работе до принятия личных выборов. Но что же это такое и как она возникает?

Давайте представим, что вы хотите купить смартфон. Вам предлагают две опции: один телефон дешевле, но производительность хуже, а другой – дороже, но лучше. Вы выбираете более дешевый вариант, но затем выясняется, что вы хотите, чтобы смартфон работал идеально. Таким образом, у вас есть две противоречивые цели: купить дешевый смартфон и получить идеальную производительность.

Именно здесь возникает систематическая ошибка согласованности. Человеческий мозг тенденциозен в том, что он, с одной стороны, хочет сократить затраты, но с другой – получить максимальную отдачу. В результате, мы сами запутываемся и не замечаем, что противоречие не разрешено.

Проанализировав и проработав эту проблему, можно прийти к пониманию, что часто систематическая ошибка согласованности может порождать неэффективного поведения и даже убытки.

Что такое систематическая ошибка согласованности?

Систематическая ошибка согласованности — это ошибка, которая возникает при выполнении серии однотипных действий и проведении одинаковых измерений, когда некоторые измерения, по сравнению с другими, отличаются от среднего значения. Такая ошибка может возникнуть, например, при использовании устаревшей техники или при сбоях в программном обеспечении.

Данный тип ошибки может иметь серьезные последствия, особенно в научных исследованиях, где точность и повторяемость являются основными критериями оценки качества результатов. Также систематическая ошибка согласованности может оказывать влияние на принятие решений в бизнесе, что может привести к серьезным финансовым потерям.

Чтобы исключить систематическую ошибку согласованности, необходимо проводить тщательную проверку и контроль качества измерений и обновлять используемое оборудование и программное обеспечение.

Почему возникает систематическая ошибка согласованности

Недостаток точности

Систематическая ошибка согласованности может возникнуть, когда используемые инструменты и методы измерения недостаточно точны. Например, если используется мерный прибор с неточными делениями, это может привести к тому, что измеряемые значения окажутся смещенными в одну сторону.

Несоответствие протоколам и процедурам

Систематическая ошибка согласованности может произойти, если используемые протоколы и процедуры не соответствуют объекту измерения. Например, при измерении длины провода с помощью рулетки необходимо учитывать, что рулетка должна быть натянута и жестко закреплена, чтобы измеряемый объект не смещался в процессе измерения.

Неправильная калибровка

Систематическая ошибка согласованности может возникнуть, если используемые инструменты не калиброваны правильно. Например, при использовании весов, которые не были калиброваны на начало каждого измерения, это может привести к тому, что значения будут смещены на одинаковое значение в одну и ту же сторону.

Влияние внешних факторов

Систематическая ошибка согласованности может быть вызвана внешними факторами, такими как температура или влажность. Например, если использовать мерный прибор в условиях с высокой влажностью, это может привести к ошибке измерения, так как влага может повлиять на точность прибора.

Человеческий фактор

Систематическая ошибка согласованности может произойти, если оператор, проводящий измерение, допускает ошибки. Например, если оператор при измерении давления не продувает трубку до начала измерения, это может привести к ошибке, так как в трубке может остаться воздух и это повлияет на точность замеров.

Примеры систематической ошибки согласованности

1. Ошибочное измерение температуры. Если при проведении эксперимента в один из дней была ошибочно измерена температура, то все последующие результаты также будут неправильными. Например, если биолог проводит эксперимент с растением и измеряет его рост каждый день, а в один из дней термометр он был сбит с температуры, то все последующие измерения будут находиться вне нормы.

2. Неправильная калибровка инструментов. Если инструмент, используемый для измерений, не калиброван правильно, то все измерения будут искажены. Например, если кровяное давление измеряется при помощи аппарата, который калиброван неправильно, то все измерения давления будут неправильными.

3. Неспецифичность методики исследования. Некоторые методы исследования могут быть неспецифичными, то есть они могут давать вариативные результаты в зависимости от того, кто проводит эксперимент. Например, если ресурсный экономист проводит эконометрический анализ и использует неспецифичную модель, то результаты эконометрического анализа будут сильно отличаться.

  • Подводя итог, следует отметить, что систематическая ошибка согласованности может привести к разочарованию в результате, т.к. она может исказить результаты исследования. Проверка правильной калибровки инструментов и использование специфических методов и исследований могут помочь избежать этой ошибки.

Как избежать систематической ошибки согласованности

Чтобы избежать систематической ошибки согласованности в исследованиях, нужно принимать ряд мер:

  • Убедиться в правильном измерении параметров. Проверьте измерительные приборы, используйте повторные измерения для устранения возможных ошибок.
  • Проводить случайный выбор образцов/участников. Рандомизация помогает избежать предвзятости в выборке и, следовательно, увеличивает достоверность результатов.
  • Использовать системы контроля качества. Они позволяют выявлять и устранять ошибки до окончательного анализа данных.
  • Анализировать данные несколькими методами. Это поможет проверить надежность результатов и избежать систематической ошибки, связанной с выбором метода анализа.
  • Проводить многоцентровые исследования. Это позволяет уменьшить влияние факторов, связанных с конкретным местом проведения исследования.
  • Контролировать персонал. Предоставьте детальные инструкции по проведению исследования и контролируйте работу персонала, чтобы убедиться в правильности выполнения всех действий.

Систематическая ошибка согласованности в научных исследованиях

Систематическая ошибка согласованности, или биас, может повлиять на результаты любого научного исследования. Она возникает, когда данные, собранные и использованные в исследовании, не являются согласованными. Это может быть связано с ошибками в измерениях, выборкой не представительной группы, неправильным использованием статистических методов.

Биас может привести к неверным заключениям и ошибочным выводам, которые могут повлиять на дальнейшее исследование и принятие решений. Например, в медицинских исследованиях биас может привести к неправильному определению эффективности лекарства или привести к ошибочному измерению показателей здоровья.

Чтобы избежать систематической ошибки согласованности, необходимо тщательно планировать исследование, обеспечивать представительность выборки, использовать правильные статистические методы и повторять эксперименты. Также важно, чтобы результаты исследования были проверены независимыми исследователями и включены в мета-анализы.

  • Пример 1: В исследовании эффективности лекарства принимали участие только мужчины, что привело к неправильному заключению об эффективности лекарства для женщин.
  • Пример 2: При измерении роста участников исследования, использовались разные инструменты для измерения, что привело к несогласованным данным и неверно интерпретированным результатам.
  • Пример 3: В исследовании была использована выборка, которая не была представительной для популяции, что привело к неверным выводам об эффективности программы.

Выводы о систематической ошибке согласованности

Изучение систематической ошибки согласованности позволяет сделать несколько выводов, которые могут быть полезны в различных областях.

  • Систематическая ошибка согласованности является серьезным недостатком в измерительных данных и может привести к неточным выводам и ошибочным решениям.
  • Проверка на наличие систематической ошибки согласованности должна быть обязательной для всех исследований, особенно в тех областях, где точность данных играет ключевую роль.
  • Проведение повторных исследований с учетом проверки на систематическую ошибку согласованности может помочь уточнить результаты и сделать более точные выводы.
  • Разработка специальных методов и алгоритмов для выявления и корректировки систематической ошибки согласованности может улучшить качество данных и повысить точность их интерпретации.

В целом, понимание и учет систематической ошибки согласованности является важным условием для достижения точных и объективных результатов в научных и практических исследованиях.

Систематическая ошибка согласованности

  • Систематическая ошибка согласованности является одним из видов когнитивных искажений, это явление схоже с предвзятостью подтверждения. Систематическая ошибка согласованности происходит из-за чрезмерной увлеченности людей непосредственно исследовать данную гипотезу, пренебрегая косвенным опытом.

    Бывает, результат, полученный непрямым опытом, получается таким же, как и прямым. Предположим, в эксперименте испытуемому представляли две кнопки и говорили, что нажатие одной из них открывает дверь. Прямая проверка этой гипотезы — нажатие кнопки слева; косвенный тест — нажатие кнопки справа. Последние действие — по-прежнему имеющий силу опыт, потому что после нажатия правой кнопки дверь остаётся закрытой и можно сделать вывод о том, что нажимать нужно левую кнопку.

    Идея прямого и косвенного контроля применяется и в более сложных экспериментах с целью объяснить возникновение систематической ошибки согласованности у людей. В эксперименте испытуемые проверяют свои неверные гипотезы снова и снова, незначительно видоизменяя, вместо того, чтобы попытаться отказаться от них.

    Классический пример иррационального усиления индивидов показал Вэйсон (1960, 1968). Экспериментатор давал испытуемым числовую последовательность «2, 4, 6», говорил, что эта последовательность следует определенному правилу, и давал задание найти правило, лежащее в основе последовательности. Большинство испытуемых ответили на задачу, быстро решив, что основное правило «числа, восходящие на 2», а также предоставили в качестве доказательства множество последовательностей, согласующихся с этим правилом, например, «3, 5, 7».

    Каждая из этих последовательностей соответствует основному правилу, которое задумал экспериментатор, хотя правило «цифры в порядке возрастания на 2» не является фактическим критерием, который используется. Однако, поскольку субъекты преуспевают неоднократно, решая задачи тем же одним принципом, они наивно полагают, что их выбранная гипотеза верна. Когда экспериментатор сообщает испытуемым, что их гипотеза неверна, многие субъекты пытаются изменить формулировку правила, не меняя свой смысл, и даже те, кто переключаются на косвенное тестирование, не могут отказаться от части правила «+ 2», и производят схожие правила, такие как «первые два номера в последовательности являются случайными, а третий номер — второй номер плюс два». Многие субъекты никогда не обнаруживают решение, что фактическое правило, использованное экспериментатором — просто список возрастающих чисел, из-за неспособности испытуемых рассмотреть непрямые проверки их гипотезы.

    Ошибка использована Элиезером Юдковским под названием «положительная предвзятость» в восьмой главе книги Гарри Поттер и методы рационального мышления. Там же приводится пример, что фактическим правилом могло быть не только «три действительных числа в порядке возрастания, от меньшего к большему», а и вообще «любые три числа». Для исключения «положительной предвзятости» следовало рассмотреть непрямые проверки, особенно те, на которые был бы получен ответ «неверно».

Источник: Википедия

Связанные понятия

Фидуциальный вывод (от лат. fides: вера, доверие), как разновидность статистического вывода, был впервые предложен сэром Р. Э. Фишером.

Реше́ние зада́ч — процесс выполнения действий или мыслительных операций, направленный на достижение цели, заданной в рамках проблемной ситуации — задачи; является составной частью мышления.

Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.

Ошибки первого рода — «ложная тревога» (англ. type I errors, α errors, false positive) и ошибки второго рода — «пропуск цели» (англ. type II errors, β errors, false negative) в математической статистике — это ключевые понятия задач проверки статистических гипотез.

Склонность к подтверждению своей точки зрения или предвзятость подтверждения (англ. confirmation bias) — тенденция человека искать и интерпретировать такую информацию или отдавать предпочтение такой информации, которая согласуется с его точкой зрения, убеждением или гипотезой.

Эксперимент Стѐрнберга — классический эксперимент, проведенный в 1966 году психологом Солом Стернбергом, позволивший сделать вывод о том, что информация извлекается из кратковременной памяти путём последовательного исчерпывающего сканирования. Оригинальные и модифицированные схемы теста (Sternberg item recognition paradigm, SIRP), описанного в статье «High-Speed Scanning in Human Memory» и являющегося частью эмпирического базиса этой теории, используются для изучения особенностей кратковременной…

Тестирование чёрного ящика или поведенческое тестирование — стратегия (метод) тестирования функционального поведения объекта (программы, системы) с точки зрения внешнего мира, при котором не используется знание о внутреннем устройстве тестируемого объекта. Под стратегией понимаются систематические методы отбора и создания тестов для тестового набора. Стратегия поведенческого теста исходит из технических требований и их спецификаций.

Тео́рия приня́тия реше́ний — область исследования, вовлекающая понятия и методы математики, статистики, экономики, менеджмента и психологии с целью изучения закономерностей выбора людьми путей решения проблем и задач, а также способов достижения желаемого результата.

В современном мире под термином «медиа» в первую очередь ошибочно подразумевают только средства массовой информации, но по своей изначальному смыслу под «медиа» следует понимать любые средства коммуникации. Медиа- это любой посредник между людьми, между человеком и средой, это любой способ передачи какой-либо информации. Например, медиа могут быть не только ТВ, радио, газета, социальные сети и т.д.., но и такие специфические вещи как танец, фотография, картинка, дневник, предмет гардероба или даже…

Подробнее: Методы исследования медиа

Ме́тод проб и оши́бок (в просторечии также: метод (научного) тыка) — является врождённым эмпирическим методом мышления человека. Также этот метод называют методом перебора вариантов.

ДСМ-метод — метод автоматического порождения гипотез. Формализует схему правдоподобного и достоверного вывода, называемую ДСМ-рассуждением.

Теория распознава́ния о́браза — раздел информатики и смежных дисциплин, развивающий основы и методы классификации и идентификации предметов, явлений, процессов, сигналов, ситуаций и т. п. объектов, которые характеризуются конечным набором некоторых свойств и признаков. Такие задачи решаются довольно часто, например, при переходе или проезде улицы по сигналам светофора. Распознавание цвета загоревшейся лампы светофора и знание правил дорожного движения позволяет принять правильное решение о том, можно…

Обучение без учителя (самообучение, спонтанное обучение, англ. Unsupervised learning) — один из способов машинного обучения, при котором испытуемая система спонтанно обучается выполнять поставленную задачу без вмешательства со стороны экспериментатора. С точки зрения кибернетики, это является одним из видов кибернетического эксперимента. Как правило, это пригодно только для задач, в которых известны описания множества объектов (обучающей выборки), и требуется обнаружить внутренние взаимосвязи, зависимости…

Демпстера-Шафера теория — математическая теория очевидностей (свидетельств) (), основанная на функции доверия (belief functions) и функции правдоподобия (plausible reasoning), которые используются, чтобы скомбинировать отдельные части информации (свидетельства) для вычисления вероятности события. Теория была развита Артуром П. Демпстером и Гленном Шафером.

Выявленное предпочтение — предпочтение, информация о котором получена в результате наблюдения за поведением экономического агента. Концепция выявленных предпочтений — это один из методов моделирования потребительского поведения в условиях определённости, который был предложен в 1938 году американским экономистом Полом Самуэльсоном. Метод основан на том, что у агентов имеются определённые устойчивые предпочтения, в соответствии с которыми они осуществляют выбор.

Подробнее: Выявленные предпочтения

Обучение ассоциативным правилам или поиск ассоциативных правил — это метод обучения машин на базе правил обнаружения интересующих нас связей между переменными в большой базе данных. Метод предлагается для установления сильных правил, обнаруженных в базе данных с помощью некоторых мер интересности. Этот основанный на правилах подход генерирует также новые правила по мере анализа дополнительных данных. Конечной целью, исходя из достаточно большого набора данных, помочь машине имитировать выделение…

Случайность имеет множество применений в области науки, искусства, статистики, криптографии, игр, азартных игр, и других областях. Например, случайное распределение в рандомизированных контролируемых исследованиях помогает ученым проверять гипотезы, а также случайные и псевдослучайные числа находят применение в видео-играх, таких как видеопокер.

Подробнее: Применения случайности

Принцип минимальной длины описания (англ. minimum description length, MDL) — это формализация бритвы Оккама, в которой лучшая гипотеза (модель и её параметры) для данного набора данных это та, которая ведёт к лучшему сжиманию даных. Принцип MDL предложил Йорма Риссанен в 1978. Принцип является важной концепцией в теории информации и теории вычислительного обучения.

Выборочное представление фактов, избирательный подход, выборочное цитирование или черри-пикинг (англ. cherry picking, досл. «сбор вишенок») — логическая ошибка, состоящая в указании на отдельные случаи либо данные, подтверждающие определённое положение, при игнорировании значительной части связанных случаев или данных, которые могут противоречить этому положению. Может быть как умышленным, так и неумышленным.

Ошибка хайндсайта (англ. hindsight bias; в русскоязычной литературе распространено написание «хиндсайт») (другие названия: феномен «я знал это с самого начала» / «я так и знал» / «Так я и знал!» (англ. I-knew-it-all-along), суждение задним числом, ретроспективный детерминизм, ретроспективное искажение) — это склонность воспринимать события, которые уже произошли, или факты, которые уже были установлены, как очевидные и предсказуемые, несмотря на отсутствие достаточной первоначальной информации для…

Тест руки (Hand test, тест руки Вагнера) — проективная методика исследования личности, разработанная в 1962 году Эдвином Е. Вагнером. Система подсчета баллов и коэффициенты разработаны 3. Пиотровским и Б. Бриклин, в России тест адаптирован Т.Н. Курбатовой.

Эвристика доступности (англ. availability heuristic) — это интуитивный процесс, в котором человек «оценивает частоту или возможность события по легкости, с которой примеры или случаи приходят на ум», т. е. легче вспоминаются. При подобной оценке человек полагается на ограниченное количество примеров или случаев. Это упрощает комплексную задачу оценки вероятности и прогнозирования значимости события до простых суждений, основанных на собственных воспоминаниях, поэтому такой процесс является необъективным…

Приня́тие жела́емого за действи́тельное — формирование убеждений и принятие решений в соответствии с тем, что является приятным человеку, вместо апелляции к имеющимся доказательствам, рациональности или реальности.

Когнитивная гибкость (англ. cognitive flexibility) — умственная способность переключаться с одной мысли на другую, а также обдумывать несколько вещей одновременно. Общепринятого операционального определения этого понятия не существует, но исследователи сходятся в том, что когнитивная гибкость является компонентом исполнительной системы. Объектами исследований в этом направлении, в основном, становились дети школьного возраста, хотя индивидуальные различия проявляются на протяжении всей жизни. Мерами…

Тематический апперцептивный тест (англ. Thematic apperception test (TAT)) — проективная психодиагностическая методика, разработанная в 1930-х в Гарварде Генри Мюрреем и Кристианой Морган. Целью методики являлось исследование движущих сил личности — внутренних конфликтов, влечений, интересов и мотивов. После второй мировой войны тест стал широко применяться психоаналитиками и клиницистами для работы с нарушениями в эмоциональной сфере пациентов.

Коэффициент Байеса — это байесовская альтернатива проверке статистических гипотез. Байесовское сравнение моделей — это метод выбора моделей на основе коэффициентов Байеса. Обсуждаемые модели являются статистическими моделями. Целью коэффициента Байеса является количественное выражение поддержки модели по сравнению с другой моделью, независимо от того, верны модели или нет. Техническое определение понятия «поддержка» в контексте байесовского вывода дано ниже.

Обучение на примерах (англ. Learning from Examples) — вид обучения, при котором интеллектуальной системе предъявляется набор положительных и отрицательных примеров, связанных с какой-либо заранее неизвестной закономерностью. В интеллектуальных системах вырабатываются решающие правила, с помощью которых происходит разделение множества примеров на положительные и отрицательные. Качество разделения, как правило, проверяется экзаменационной выборкой примеров.

Семантическая информация — смысловой аспект информации, отражающий отношение между формой сообщения и его смысловым содержанием.

Объяснение является набором утверждений, обычно построенных для описания набора фактов, в которых уточняются причины, контекст и последствия этих фактов. Это описание может устанавливать правила или законы и может разъяснять существующие правила и/или законы в отношении объектов и явлений, которые рассматриваются. Компоненты объяснения могут быть неявными и быть переплетены друг с другом.

В психологии эвристика беглости — это ментальная эвристика, в которой, если один объект обрабатывается плавнее или быстрее другого,то этот объект имеет более высокое значение в отношении рассматриваемого вопроса. Другими словами, чем более умело или изящно идея передается, тем вероятней, что её следует рассматривать серьезно, независимо от того, логична она или нет.

Трансдуктивное обучение (англ. transductive inference) — полу-контролируемое обучение (частичное обучение), обучение с частичным привлечением учителя, когда прогноз предполагается делать только для прецедентов из тестовой выборки.

Выбор модели — это задача выбора статистической модели из набора моделей-кандидатов по имеющимся данным. В простейшем случае рассматривается существующий набор данных. Однако задача может вовлекать планирование экспериментов, так что сбор данных связан с задачей выбора модели. Если заданы кандидаты в модели с одинаковой силой предсказания или объяснения, наиболее простая модель скорее всего будет лучшим выбором (бритва Оккама).

Закон Парето (принцип Парето, принцип 80/20) — эмпирическое правило, названное в честь экономиста и социолога Вильфредо Парето, в наиболее общем виде формулируется как «20 % усилий дают 80 % результата, а остальные 80 % усилий — лишь 20 % результата». Может использоваться как базовая установка в анализе факторов эффективности какой-либо деятельности и оптимизации её результатов: правильно выбрав минимум самых важных действий, можно быстро получить значительную часть от планируемого полного результата…

Разрешение лексической многозначности (word sense disambiguation, WSD) — это неразрешенная проблема обработки естественного языка, которая заключается в задаче выбора значения (или смысла) многозначного слова или словосочетания в зависимости от контекста, в котором оно находится. Данная задача возникает в дискурсивном анализе, при оптимизации релевантности результатов поисковыми системами, при разрешении анафорических отсылок, в исследовании лингвистической когерентность текста, при анализе умозаключений…

Методика сопряженных моторных реакций — психофизиологическая методика, созданная А. Р. Лурией, направленная на определение нервно-психического состояния испытуемого. Основывается на методе свободных ассоциаций…

Эффект сверхуверенности (англ. overconfidence effect) — когнитивное искажение, при котором уверенность человека в своих действиях и решениях значительно выше, чем объективная точность этих суждений. Также выражается в льстивом представлении о себе.

Дифференциальная приватность — совокупность методов, которые обеспечивают максимально точные запросы в статистическую базу данных при одновременной минимизации возможности идентификации отдельных записей в ней.

Машина вывода — программа, которая выполняет логический вывод из предварительно построенной базы фактов и правил в соответствии с законами формальной логики.

Индуктивное логическое программирование (Inductive Logic Programming, ILP) — раздел машинного обучения, который использует логическое программирование как форму представления примеров, фоновых знаний и гипотез. Получив описания уже известных фоновых знаний и набор примеров, представленных как логическая база фактов, система ILP может породить логическую программу в форме гипотез, объясняющую все положительные примеры и ни одного отрицательного.

Логическая ошибка — в логике, философии и прочих науках, изучающих познание, ошибка, связанная с нарушением логической правильности умозаключений. Ошибочность обусловлена каким-либо логическим недочётом в доказательстве, что делает доказательство в целом неверным.

Логика Бэрроуза — Абади — Нидхэма (англ. Burrows-Abadi-Needham logic) или BAN-логика (англ. BAN logic) — это формальная логическая модель для анализа знания и доверия, широко используемая при анализе протоколов аутентификации.

Двухфа́кторная тео́рия эмо́ций — социально-психологическая теория, рассматривающая эмоции как сочетания двух компонентов (факторов): физиологического возбуждения и когнитивной интерпретации этого возбуждения.

Обобще́ние поня́тий — логическая операция, посредством которой в результате исключения видового признака получается другое понятие более широкого объема, но менее конкретного содержания; форма приращения знания путём мысленного перехода от частного к общему в некоторой модели мира, что обычно соответствует и переходу на более высокую ступень абстракции. Результатом логической операции обобщения является гипероним.

Надёжностью называется один из критериев качества теста, его устойчивость по отношению к погрешностям измерения. Различают два вида надёжности — надёжность как устойчивость и надёжность как внутреннюю согласованность.

Подробнее: Надёжность психологического теста

Ошибка на единицу или ошибка неучтённой единицы (англ. off-by-one error) — логическая ошибка в алгоритме, включающая в частности дискретный вариант нарушения граничных условий.

Функциональная закреплённость (функциональная фиксированность) — психологический феномен, открытый и описанный Карлом Дункером.

Неуверенные данные встречается в области сенсорных сетей; тексты с шумом в изобилии встречаются в социальных сетях, интернете и на предприятиях, где структурированные и неструктурированные данные могут быть старыми, устаревшими или попросту некорректными; в моделировании, когда математическая модель способна быть лишь приближением реального процесса. При представлении таких данных в базе данных, указание вероятностии корректности различных значений также должно быть произведено.

Пять почему — техника, используемая для изучения причинно-следственных связей, лежащих в основе той или иной проблемы. Основной задачей техники является поиск первопричины возникновения дефекта или проблемы с помощью повторения одного вопроса — «Почему?». Каждый последующий вопрос задаётся к ответам на предыдущий вопрос. Количество «5» подобрано эмпирическим путём и считается достаточным для нахождения решения типичных проблем.

Понравилась статья? Поделить с друзьями:
  • Система снижения токсичности рено каптур ошибка как устранить
  • Систематическая ошибка измерения это
  • Система репарации ошибок и повреждений днк
  • Систематическая ошибка секундомера
  • Систематическая ошибка измерений возникает при