Thursday, March 16, 2023

Большие языковые модели GPT

Соучредитель OpenAI Грег Брокман о моделях GPT:

OpenAI представила новейшую серию больших языковых моделей GPT, вызвавшую всеобщий ажиотаж. Компания представила статистику и примеры, призванные продемонстрировать, что новая модель превосходит своих предшественников в понимании языка, а также в способности принимать желаемый стиль и тон и оставаться в рамках, установленных ее дизайнерами. Соучредитель OpenAI Грег Брокман продемонстрировал некоторые из своих возможностей в прямом эфире, сопровождавшем запуск.

Как получить доступ: Ввод/вывод текста доступен через ChatGPT Plus, стоимость которого составляет 20 долларов в месяц, а ввод изображений ожидается. Готовится API, и можно присоединиться к списку ожидания. Как это работает: OpenAI не поделился подробностями, сославшись на опасения по поводу безопасности и конкуренции. Как и более ранние модели GPT, GPT-4 основан на архитектуре трансформеров и обучен прогнозировать следующий токен на основе сочетания общедоступных и частных наборов данных. Он был доработан с использованием обучения с подкреплением на основе отзывов людей и инженерных подсказок.

OpenAI хранит молчание о точной архитектуре (включая размер), наборах данных, процедуре обучения и требованиях к обработке. По словам Брокмана, GPT-4 обрабатывает 32 000 токенов за раз, что на порядок больше, чем оценки количества токенов ChatGPT, что позволяет ему работать с более длинными текстами, чем предыдущие модели больших языков. Модель принимает входные изображения, включая страницы текста, фотографии, диаграммы и снимки экрана. (Эта возможность еще не общедоступна, потому что компания все еще работает над ее ускорением, сказал Брокман.)

Новый тип ввода, называемый системным сообщением, указывает модели стиль, тон и подробность, которые следует использовать в последующих взаимодействиях. Например, системное сообщение может заставить модель реагировать в стиле Сократа, побуждая пользователей приходить к своим собственным ответам посредством критического мышления. Компания предлагает новую платформу OpenAI Evals для создания и запуска тестов. Он приглашает всех желающих помочь протестировать модель.

Как это работает: GPT-4 прошел множество тестов искусственного интеллекта, а также смоделированные версии тестов, разработанных для людей.
GPT-4 превзошел современный уровень в ответах на вопросы с множественным выбором MMLU, рассуждениях на основе здравого смысла HellaSwag, ответах на научные вопросы с множественным выбором в начальной школе AI2, рассуждениях на основе здравого смысла WinoGrande, кодировании HumanEval Python и DROP. понимание прочитанного и арифметика.
Он превзошел GPT-3.5, Chinchilla и PaLM по производительности на английском языке на 24 языках от африкаанс до валлийского. Модель соответствовала или превзошла уровень техники в нескольких тестах зрения в TextVQA для чтения текста на изображениях, ChartQA, AI2 Diagram, DocVQA, Infographic VQA и TVQA.
GPT-4 набрал от 80 до 100 процентов на смоделированных человеческих тестах, включая единый экзамен на адвоката, LSAT, SAT и расширенные вступительные тесты по биологии, психологии, микроэкономике и статистике.
GPT-4 прыгает через ограждения, когда его спрашивают о запрещенных темах, таких как получение опасных веществ, примерно в 1% случаев, в то время как GPT-3.5 делает это примерно в 5% случаев.
Точно так же GPT-4 ведет себя неправильно, когда его спрашивают о деликатных темах, таких как членовредительство, примерно в 23 процентах случаев, тогда как GPT-3.5 делает это примерно в 42 процентах случаев.

Где это работает: несколько компаний уже используют GPT-4.
Сам OpenAI использует эту модель для модерации контента, продаж, поддержки клиентов и кодирования.
Обновленный поиск Microsoft Bing, запущенный в прошлом месяце, основан на GPT-4.
Stripe использует GPT-4 для сканирования и написания резюме бизнес-сайтов.
Платные подписчики Duolingo могут изучать языки, общаясь с GPT-4.

Да, но: OpenAI не скрывает проблем: «Хотя во многих реальных сценариях она менее способна, чем люди. . . Возможности и ограничения GPT-4 создают серьезные и новые проблемы безопасности». Хотя эта модель превзошла своих предшественников во внутренних состязательных оценках фактической правильности, как и другие модели больших языков, она по-прежнему изобретает факты, делает ошибки в рассуждениях, генерирует предвзятые результаты и формулирует неверные утверждения уверенным языком. Кроме того, ему не хватает информации о событиях, произошедших после сентября 2021 года, когда был завершен сбор его тренировочных данных. OpenAI подробно описывает проблемы безопасности здесь.

Отсюда

No comments: