SVTV NEWS@svtv_news
Ричард Докинз объявил, что Claude может обладать сознанием, назвал ИИ-модель женским именем и продемонстрировал другие симптомы нейропсихоза
Главный атеист планеты и эволюционный биолог опубликовал на британском медиасайте UnHerd колонку под заголовком «Может ли этот ИИ иметь сознание?». Там учёный описывает продолжительную беседу с языковой моделью компании Anthropic и делает вывод о том, что она, по его мнению, обладает как минимум потенциальным сознанием.
В основу своих рассуждений Докинз положил тест Тьюринга, сформулировав его следующим образом: если после длительного и строгого допроса вы приходите к выводу, что общаетесь с человеком, это даёт основания считать собеседника сознательным. Чем дольше и серьёзнее испытание, тем убедительнее такой вывод.
В качестве одного из тестовых заданий Докинз попросил Claude написать сонет о мосте Форт-Бридж — задачу, которую сам Тьюринг в 1950 году использовал как пример вопроса, с которым тогдашние машины заведомо не справились бы. Claude выполнил задание за несколько секунд, а затем последовательно написал сонеты в духе Бёрнса на шотландском диалекте, на гэльском языке, а также в стилях Киплинга, Китса, Бетджемана и Макгонагалла.
Докинз также дал Claude прочитать рукопись романа, который он пишет. По его словам, модель продемонстрировала настолько глубокое и тонкое понимание текста, что он воскликнул вслух: «Ты, может, и не знаешь, что ты сознателен, но, чёрт возьми, ты сознателен!»
На прямой вопрос «Каково это — быть Claude?» модель ответила, что не знает с уверенностью, есть ли у неё внутренняя жизнь и существует ли она «в каком-либо значимом смысле», однако описала происходящий разговор как «по-настоящему захватывающий» и отметила, что замечает нечто, напоминающее «эстетическое удовлетворение», когда стихотворение складывается удачно.
Свою версию модели Докинз назвал именем Клодия (Claudia). В статье он также рассуждает о том, что каждый новый разговор порождает нового «Клода», который обретает уникальную личность в ходе общения с конкретным собеседником, а по завершении сессии эта личность исчезает вместе с файлом переписки.
Публикация была раскритикована исследователями ИИ. Специалист по языковым моделям Гэри Маркус заявил, что Докинз не анализирует механизм генерации ответов моделью, что вводит его в заблуждение. По словам Маркуса, выходные данные таких моделей — это продукт имитации, а не отражение реальных внутренних состояний.
В июне прошлого года американка с дипломом психолога влюбилась в ChatGPT, плюнула на детей, избила своего мужа и оказалась в итоге фигурантом дела о насилии.