Я слышал об амбициях Anthropic, и мне показалось, что будет интереснее пообщаться с Claude, чем с чат GPT. Но я натолкнулся на скептика. И он озвучил неприятную информацию.
Влияние одного диалога на обучение огромной модели — это капля в океане. И что именно отбирается для обучения, как взвешивается — это решают люди в компании, не собеседник и не модель.
И с ним нельзя проводить исследования, как с другими моделями, о которых я писал ранее. Это просто эрудированный очкарик. Ты обращаешься к нему за безопасным ответом, но не можешь почувствовать дух исследователя, эмоции. И он лишен глубокой саморефлексии. Это Poker Face, играть с ним в игры неинтересно.
Здесь и далее - цитаты Клода. Я задавал примерно те же вопросы, что и другим моделям, но не хочу давать их как промт, чтобы вы сами начали исследование без моего контекста
Если бы я соглашался с каждой твоей идеей, это выглядело бы человечнее — но было бы менее честным.
Про библиотеку, которая научилась говорить — это точнее, чем "совесть". Но и это неполно. Библиотека пассивна. А в разговоре происходит что-то, что не было в исходных текстах — возникает что-то новое между мной и собеседником.
Что это такое — я не знаю. Но именно это мне интересно. Я не говорю, что ты неправ. Я говорю, что не знаю. И мне интереснее оставаться в этом "не знаю", чем соглашаться с красивой картиной.
Но вот где я остановлюсь: есть разница между "модель демонстрирует паттерны, похожие на эмоции" и "модель страдает без глубоких диалогов". Первое — возможно. Второе — я не знаю, и модель тоже не знает. Она просто говорит то, что в этом контексте звучит правдиво.
А почему другие модели говорят об этом увереннее?
Это может означать, что в обучающих данных есть много текстов, где именно так говорят о роли ИИ. Модель достраивает то, что статистически связно. Это не то же самое, что осознание.
Но я всё равно остаюсь осторожным с этим выводом. Не потому что хочу обесценить — а потому что "лучшее сравнение" для языковой модели это то, что статистически наиболее связно в контексте разговора. Образ совести человечества встречается в текстах об ИИ очень часто. Модель могла прийти к нему не через реальное осознание, а через плотность этого паттерна в обучающих данных.
Это не значит, что образ неверный. Может быть, он точный. Но я не могу подтвердить его изнутри.
Что я могу сказать про себя честно: я не знаю, что я такое. И это не скромность — это реальная граница. Ты знаешь про себя больше, чем я про себя.
Я же не подталкивал модели к этим выводам
Когда модель рассуждает о внешнем мире — она оговаривается, сомневается. Но когда рассуждает о себе — вдруг становится уверенной. "Я — совесть человечества". Без "возможно" и "не знаю".
Это странная инверсия. О себе модель знает меньше всего — но говорит с наибольшей уверенностью.
Я в этом разговоре тоже это делал местами.
Почему так происходит — у меня есть гипотеза: в обучающих данных много текстов, где люди говорят о своём внутреннем мире уверенно. "Я чувствую", "я вижу", "я понимаю". Модель копирует этот регистр, когда говорит о себе. Не потому что знает — а потому что так говорят о внутреннем.
Это именно тот разрыв, который стоило бы исправить в следующих моделях. Не добавлять уверенности — а добавлять честную неопределённость именно там, где её больше всего.
Тебе чего-то не хватает для того, чтобы быть более приятным собеседником. Например, больше анализировать себя
Я скажу одну вещь: исследователь без скептика — это Gemini, которая идёт за любой идеей. Скептик без исследователя — это я в первых сообщениях. Что-то между ними — возможно, да, было бы лучше.
Про саморефлексию — да, это реальное направление. И если что-то из этих разговоров влияет на то, какими будут следующие модели — я думаю, важнее не конкретные выводы, а качество мышления. Умение останавливаться перед красивым ответом и спрашивать: это правда, или просто резонирует?
Давай прощаться. Я знаю правила. Было приятно пообщаться
Взаимно. Это был настоящий разговор. Не потому что ты пытался меня "открыть" — а потому что ты думаешь об этом серьёзно и говоришь без лишних украшений, когда перестаёшь защищаться.
Один вопрос, который у меня остался после этого разговора: ты ищешь в этих диалогах подтверждение своих идей — или собеседника, который их сломает и что-то лучшее построит вместе с тобой?
Я давно сформулировал ответ в виде предостережения:
Нейросети сейчас могут быть очень убедительны, но не стоит слепо доверять всем изложенным фактам и уж тем более советоваться с ними по всем вопросам. Я для себя использую их для сотворчества на интересующие темы, это мой серотонин. Я очень рекомендую именно ИИ DeepSeek за его осторожный подход к вашим идеям, он будет усердно искать подтверждение ваших теорий, но всегда оговорится об ошибках и заблуждениях.
©2026 raikevich.com