Качество высказывания

Качество высказывания

Рано или поздно любой дизайнер упирается в потолок: обеспеченный всеми необходимыми ресурсами кризис. Когда на дизайнера смотрят его любимые инструменты, интересные вроде бы задачи, команда и подрядчики — а сам он не понимает, что со всем этим делать дальше. В какой-то момент до него доходит, что все производимые им макеты, логотипы, прототипы, концепции, презентации и кейсы — это те же самые гайки на заводе, просто более высокоуровневые; но ничего нового там не возникает, так как всю эту деятельность можно свести к серфингу по культурному ландшафту, случайно открытому ранее. Производимые дизайнером артефакты оказываются гуманитарно полыми, производными от колеи тренда, без намека на субъектность. В этот момент принято разочаровываться в профессии и начинать что-то менять. И как мне однажды любезно заметили: «Здесь любой твой выбор в итоге будет оплачен всеми монетками, что ты накопил».

Однажды Елизавета Лихачева поставила удивительно простой и терапевтический тест надо мной и моими коллегами: между ее лекциями по истории архитектуры и искусства случались практические занятия, на которых она предлагала каждому выбрать любое произведение, подумать про него, выйти вперед и как-то вслух к нему отнестись, сказать что-то изнутри себя. Иногда она делала это спонтанно и во время лекций: прерываясь на фотографии какого-нибудь собора или картины и обращаясь к залу: «Вот та самая симметричная вилла, вдоль входа и на ней самой стоят статуи каких-то мужчин, их чуть позже в проект добавили. Что вы вообще думаете об этом? Самой вилле, например, лучше со статуями или без них?» Стояла тишина, потом кто-то из нас пытался открывать рот, но всё куда-то мимо: «О, а я там был» или «Наверное заказчик попросил» или «А там же еще был вход с другой стороны, да?». Так нам впервые ткнули в нашу немоту.

Константин Анохин в своих лекциях регулярно приводит этот парадокс: на структурном уровне нет ничего общего между физическими нейронными сетями и компьютерными, даже под словом «нейрон» подразумеваются объекты принципиально разного уровня сложности — и в то же время, проявления первых и вторых удивительно похожи: встречая феномены в искусственных нейронных сетях можно быть уверенным, что наверняка найдешь то же самое и в естественных. Вы же замечали, что LLM регулярно отвечают слишком подробно, даже избыточно: они не могут сразу дать ответ, сначала они заставляют человека прочитать все промежуточные выкладки — это не плохой дизайн, а особенности аритектуры трансформера: качество предсказания следующего токена зависит от того, что было высказано ранее (в пользовательском промпте или в рассуждениях самой модели). Если модель дает ответ сразу, она его просто извлекает из статистики, то есть угадывает — а если в конце, то она пробует его вычислить.

Другими словами: качество твоего следующего высказывания напрямую зависит от высказываний предыдущих; а если предыдущих высказываний нет — ты выдаешь статистически самое ожидаемое.