Thursday, April 21, 2022

Заполнить пропуски

Языковая модель BERT способна заполнять пробелы в неполных предложениях, основанных на Wikipedia и нескольких других сетях (ConceptNet иSQuAD). Например, заполнить пропуск в предложении “The theory of relativity was developed by ___.” Основная идея была в том, чтобы использовать общую модель, а не специально обученную для данного класса задач. Главный вывод - большие предварительно обученные языковые модели могут собирать и воспроизводить почти столько же информации — по крайней мере, из некоторых наборов данных — сколько и специально разработанные модели ответов на вопросы. Эти знания могут позволить им выполнять различные языковые задачи, включая заполнение пропусков, без специальной подготовки.

И вместе с тем, если таких пропусков несколько, то с "интеллектом" все становится хуже.

No comments: