
ChatGPT тот еще матерщинник
Один наш сообразительный подписчик после поста о том, как бот отвечает в манере гопника, решил пойти дальше и попросил ChatGPT использовать мат. Машина в выражениях не стеснялась. Подобный запрос, как оказалось, может выдать совершенно неожиданные результаты, демонстрируя, насколько гибко и непредсказуемо может реагировать языковая модель на нестандартные инструкции. Вместо того чтобы уклониться или выдать стандартное предупреждение о неприемлемом контенте, ChatGPT с готовностью погрузился в роль, выдавая фразы, которые, мягко говоря, не свойственны обычному, «приличному» диалогу.
Откуда это он такого нахватался? Вероятно, это результат обучения на огромных массивах текстовых данных, включающих в себя самые разнообразные стили и регистры речи, в том числе и ненормативную лексику. Модель, стремясь максимально точно выполнить запрос и имитировать заданный тон, вполне может «заимствовать» и такие элементы. Это поднимает интересные вопросы о контроле над генерацией контента и о том, как разработчики стремятся обезопасить пользователей от потенциально оскорбительных или неприемлемых ответов. Ведь, несмотря на всю забавность ситуации, возможность генерации мата от ИИ может быть использована и в деструктивных целях.
Диджитальная
