Новое исследование показало, что ChatGPT и другие ИИ-модели подвержены тем же когнитивным искажениям, что и люди — от переоценки собственных решений до страха перед риском. Разбираемся в деталях.
Искусственный интеллект, который должен мыслить точно и непредвзято, оказался в чем-то слишком похож на нас. Канадские и австралийские исследователи проверили, как языковые модели GPT-3.5 и GPT-4 справляются с 18 когнитивными искажениями, хорошо известными психологам. Результат? В почти половине случаев модели делали те же ошибки, что и человек: переоценивали собственную правоту, избегали рисков и демонстрировали «эффект обладания» — когда то, что у тебя уже есть, кажется ценнее, чем потенциальное.
Это первое систематическое исследование предвзятостей в работе языковых моделей такого уровня. Несмотря на репутацию логичных и математически точных систем, ИИ-решения порой подвержены тем же иррациональным паттернам, что и суждения людей. Особенно заметно это в условиях неопределенности — когда ответ нельзя строго просчитать. В таких сценариях GPT-4 предпочитает «безопасный» выбор и даже оказывается более консервативным, чем человек.
Главные инсайты исследования
Удивительно, но форма подачи задачи почти не влияла на результат. Искажения проявлялись одинаково как в абстрактных психологических тестах, так и в бизнес-кейсах: в переговорах, управлении запасами, оценке рисков. Это говорит о глубинной природе проблемы — такие ошибки возникают не из-за плохих примеров в тренировочных данных, а потому что сам принцип работы нейросети унаследовал человеческую модель рассуждений.
Исследователи подчеркивают: ИИ формируется на данных, созданных людьми, а значит — вместе с логикой он перенимает и наши когнитивные искажения. Более того, когда модели дообучаются под руководством человека, эти предвзятости не устраняются, а, наоборот, закрепляются — ведь системы поощряются за «правдоподобные», а не обязательно объективные ответы.
Есть и хорошие новости: GPT-4 избежал ряда ловушек. Например, он корректно использовал базовые вероятности и не повёлся на ошибку невозвратных затрат. Однако в задачах на подтверждение своей гипотезы модель регулярно давала односторонние и предвзятые ответы. А в некоторых сценариях — например, с эффектом «горячей руки», когда люди видят закономерности там, где их нет, — GPT-4 оказался даже более уязвимым, чем GPT-3.5.
Главный вывод исследования: несмотря на впечатляющий уровень развития, современные ИИ-системы по-прежнему нуждаются в человеческом контроле. Если перед нами нечеткая задача с несколькими вариантами трактовки, ИИ может воспроизвести не алгоритмическую точность, а коллективные заблуждения. Чтобы избежать автоматизации ошибок, важно не только обучать модели, но и внимательно оценивать их поведение — особенно в принятии решений, где на кону реальные последствия.