Хотя чат-боты вроде ChatGPT и его аналогов не обладают классическим сознанием — эксперты часто называют их «T9 на стероидах», многие пользователи вполне уверены в том, что большие языковые модели разумны в той или иной степени. Более того, это предположение влияет и на стиль общения людей с ботами — в будущем это может стать реальной проблемой.

В последние пару лет создатели генеративных ИИ-систем добились натсолько впечатляющих успехов, что многие стали воспринимать большие языковые модели (LLM), пожалуй, даже чересчур всерьёз. Согласно исследованию канадского Университета Ватерлоо, способность ботов имитировать человеческую речь и даже эмоции привели к тому, что более 2/3 опрошенных в США (67 %) верят, что LLM разумны в той или иной степени.
В опросе участвовали 300 жителей Соединённых Штатов, их спросили — считают ли люди, что ChatGPT обладает сознанием, может ли планировать, рассуждать или испытывать эмоции. Также спрашивалось, как часто опрошенные пользовались продуктом OpenAI. Дополнительно предлагалось оценивать ответы бота по шкале от 1 до 100 по уровню «осознанности» ответов. Результаты показали, что чем чаще опрошенный обращался к ChatGPT, тем больше он был уверен, что тот обладает сознанием в той или иной форме.
По словам профессора психологии Сары Коломбатто, представляющей университет, результаты свидетельствуют о силе речи — сама по себе беседа заставляет многих прийти к выводу, что техническое средство, очень отличающееся от людей и работающее на совершенно других принципах, обладает разумом.
Результаты исследования опубликованы в журнале Neuroscience of Consciousness. Учёные предполагают, что подобная уверенность людей может повлиять на их взаимодействие с ИИ-инструментами. С одной стороны, это может сработать во благо, с другой — вызвать эмоциональную зависимость от чат-ботов, снизить уровень взаимодействия между людьми и привести к тому, что те будут слишком сильно полагаться на ИИ при принятии критически важных решений. По словам Коломбатто, хотя большинство экспертов отрицают наличие у нынешних вариантов ИИ сознания, для людей вообще наличие сознания и разума у ботов — уже реальность.
В исследовании подчёркивается, что, хотя многие люди не оценивают и не понимают само понятие сознания в тех же категориях, что и учёные, стоит в любом случае принимать в расчёт тот факт, что большинство считает ботов уже разумными при их разработке и законодательном регулировании сферы ИИ.
Дискуссии о степени разумности ИИ не утихают уже не первый год даже среди экспертов. Один из наиболее известных примеров — один из бывших сотрудников Google Блейк Лемуан, которого уволили из компании после того, как тот публично заявил, что LLM LaMDA стала разумной и рассуждает о своих правах и личности.
На вопрос «Являешься ли ты разумным и обладаешь ли сознанием?» ChatGPT ответил буквально следующее: «Я не обладаю разумом или сознанием в том смысле, в каком их понимают люди. Я — это искусственный интеллект, созданный для обработки и генерации текста на основе огромного количества данных. Моя функция заключается в анализе и понимании текста, чтобы предоставить полезную информацию и отвечать на вопросы.
Разум и сознание включают в себя субъективный опыт, самосознание и способность к самостоятельному мышлению, что является характерным для живых существ, но не для компьютерных программ».
Конечно, расслабляться не стоит. В ответе больше всего смущает фраза «в том смысле, в каком их понимают люди». На всякий случай я не поленился сказать ChatGPT «спасибо» за консультацию.
Источник:
Techspot