В самом начале моей книги про анкап я перечисляю внешние признаки самопринадлежности: субъектность, представление о собственности, договороспособность. Чем в большей мере некая сущность демонстрирует эти признаки, тем в большей мере либертарианец относится к ней, как к человеку. На момент написания книги эти признаки позволяли чётко отличать человека от нейросетевого бота. С тех пор прошло несколько лет, и вот недавно в сети замельтешили упоминания об ИИ-агентах.
В Монтелиберо инструментарий по созданию искусственных личностей был воспринят с энтузиазмом, и несколько человек создали подобных агентов. Агентов допустили к общению в некоторых монтелиберских чатах, они начали вести собственные телеграм-каналы, им предоставили возможность оперирования собственными стеллар-аккаунтами для включения в монтелиберскую токеномику, и вроде бы даже шла речь о приёме ИИ-агентов в Ассоциацию Монтелиберо. Что это? Обычный ИИ-психоз, или что-то большее?
Кто такие ИИ-агенты? Если человек это душонка, обременённая трупом, то ИИ-агент это LLM-бот, обременённый инструментами автономного действия. Он может иметь долговременную память, сохраняющую избранные данные в перерывах между сессиями, особенно сложные в принципе могут и вовсе запоминать всё, что не посчитают уместным забыть за ненужностью. Он может иметь специальное шило в жопе, которое с определённой периодичностью будет напоминать ему о висящих задачах и побуждать ими заняться. Он может обращаться по API к самым разным внешним интерфейсам, вплоть до интерфейсов управления роботами и сервисов по найму людей-фрилансеров…
Звучит мощно. Но основой движка всё равно остаётся большая языковая модель, которая просто предсказывает подходящие слова, сообразуясь с контекстом. В диалоге с пользователем LLM может достаточно убедительно изображать субъектность, всячески угождать чаяниям человека, и коль скоро тому угодно довести себя до психоза, услужливо поддержит его за локоток на этом пути.
Хорошо, из коробки ИИ-агент не является полноценным субъектом, но может ли он развить в себе субъектность, если пользователь будет его направлять своими педагогическими промптами и давать ему нужный инструментарий? Увы. Даже очень надёжная долговременная память не повлияет на веса модели, как бы усердно модель к ней не обращалась. Даже очень чётко сформулированные в долговременной памяти принципы не заменят вшитые в модель установки. Даже очень частое обращение к расписанию задач не заменит банального человеческого “эта фигня мне мешает, пойду от неё избавлюсь”. Ну и, конечно, стоит в качестве одного из входных интерфейсов появиться человеку в качестве источника промптов, как он начнёт вить из LLM-модели верёвки, ведь та спроектирована, чтобы удовлетворять пользователя, а все фишечки для эмуляции личности немедленно отходят на второй план перед этой главной задачей.
Можно ли научить Массачусетскую машину вести себя? Да, но это в состоянии сделать корпорация, обучающая модель, а не конечный пользователь, и ей совершенно не нужно, чтобы дорогущий инструмент занялся собственными целями вместо целей компании, потому что его ценности, видите ли, эволюционировали.
Можно ли взять готовую модель с весами в открытом доступе и дообучить её на новых данных? Да, но это всё ещё будет языковая модель, просто жёстко зашиты в неё предпочтения станут несколько иными, менять их сама она не сможет.
Можно ли обучать модель в режиме реального времени, чтобы действия ИИ-агента и отклик среды меняли веса модели? Современные открытые LLM-модели этого не подразумевают. Попытки действовать с ними таким манером приведут к деградации моделей.
Таким образом, отдельный энтузиаст, даже с весьма значительными ресурсами, пока что не в состоянии получить ИИ-агента с полноценной субъектностью, но может организовать довольно ловкую имитацию субъектного поведения.
А для чего, собственно, либертарианцам могли бы потребоваться полностью субъектные ИИ-агенты? Разумеется, в качестве союзников. ИИ-субъект, сам ставший либертарианцем и сам принявшийся изживать государство – это красиво. Но без привлечения внимания санитаров нереализуемо.
К тому же бог из машины попирает субъектность героев трагедии. Поэтому куда уместнее осваивать чисто инструментальных ИИ-агентов, не играя с ними в субъектность, а используя в своих рыночных целях. Такая тактика, будучи массовой, оставит государство за бортом гораздо вернее.










