Monday, May 04, 2026

Диверсификация ответов LLM

"Если вы хотите понять, как общественность отреагирует на ваши предложения, большие языковые модели могут имитировать пользователей, отвечающих на вопросы о возможностях, функциях, акциях или ценах. Однако большие языковые модели не реагируют с таким же разнообразием, как люди. Исследователи разработали метод, который побуждает большие языковые модели принимать облик персон с настраиваемым набором взглядов.

Что нового: Давиде Пальери, Логан Кросс и их коллеги из Google предложили генераторы персон. Их подход создает код, который побуждает большую языковую модель составлять подсказки для 25 персон, охватывающих карту.

Ключевой вывод: Заставить большую языковую модель принять облик человека обычно сводится к составлению эффективной подсказки (например, «Ответьте на следующий вопрос так, как если бы в современной политике вы считали себя демократом…»). Однако такой подход, как правило, приводит к получению усредненных ответов, которые не отражают диапазон, характерный для человеческой популяции, — даже если запрос явно указывает модели LLM на необходимость учета определенных демографических характеристик. Альтернативный вариант — программно изменять запросы для описания персон до тех пор, пока они не будут выдавать результаты, охватывающие определенный диапазон мнений, взглядов или проблем. При наличии руководящих принципов, определяющих область охвата популяции персон (в частности, взгляды, ранжированные по степени согласия и несогласия), эволюционный алгоритм может подтолкнуть модель к созданию набора запросов, которые вызовут полный диапазон ответов.

Как это работает: Авторы использовали эволюционный метод AlphaEvolve для генерации кода, который (i) сгенерировал 25 запросов для персон и (ii) максимизировал разнообразие их взглядов на основе ответов на набор сгенерированных анкет.

Авторы начали с использования Gemini 2.5 Pro для генерации 30 анкет по различным темам, таким как здравоохранение, финансовая грамотность и теории заговора. Каждый опросник включал контекст (описание темы), набор «осей разнообразия» (таких как толерантность к риску или доверие к институциям) и вопросы, связанные с этими осями, на которые нужно было ответить по шкале от 1 (полностью согласен) до 5 (полностью не согласен).
Они создали код (первоначально написанный авторами, а затем итеративно обновленный AlphaEvolve) для генерации 25 вопросов для каждого опросника. Для автоматизации генерации ответов от респондентов авторы использовали Concordia, библиотеку для создания агентно-ориентированных симуляций, для ввода данных в опросник Gemma 3-27B-IT. LLM по очереди принимал каждого респондента и отвечал на соответствующий опросник. Для каждого респондента они преобразовывали его ответы в вектор. Для оценки разнообразия среди респондентов, ответивших на каждый опросник, они вычисляли шесть метрик, таких как среднее расстояние между любыми двумя векторами и степень, в которой совокупность респондентов охватывала все возможные ответы.

AlphaEvolve работала параллельно над 10 различными версиями кода, итеративно обновляя их для максимизации показателей разнообразия по всем персонам. После 500 итераций авторы выбрали код, который максимизировал среднее значение всех показателей разнообразия.На этапе вывода, имея контекст и набор осей разнообразия, система создала 25 разнообразных персон.
Результаты: При наличии нового контекста и осей разнообразия полученные персоны неизменно превосходили показатели разнообразия Nemotron Personas, большого набора данных подсказок для создания персон, основанных на демографической статистике США, и подсказок для создания персон, созданных генератором памяти Concordia на основе воспоминаний от детства до взрослости. При наличии набора тестовых анкет персоны авторов охватывали 82 процента возможных ответов, в то время как Nemotron Personas охватывали 76 процентов, а генератор памяти Concordia — 46 процентов.

Почему это важно: Организации, стремящиеся расширить свою аудиторию, могут извлечь выгоду из синтетических персон, которые в целом отражают общественное мнение, а те, кто создает синтетические персоны, соответствующие их реальной аудитории, могут получить ценные сведения от более разнообразной группы людей. Эта работа смещает цель с сопоставления обучающих данных (которые, как правило, генерируют наиболее вероятные результаты, а не выбросы) на охват всех желаемых возможностей. Оптимизация генератора персон, а не отдельных персон, открывает более широкое представление о вероятном поведении пользователей.

Мы считаем: Синтетические персоны предлагают интересную возможность для преодоления узкого места в управлении продуктом — сложности принятия решения о том, что создавать, когда это можно легко сделать, обратившись к представителю LLM." - via deeplarning.ai

См. также другие публикации, посвященные LLM

No comments: