Пацан просто попросил ChatGPT написать «я чебуречек», но бот довел его до нервного тика.

Пацан просто попросил ChatGPT написать «я чебуречек», но бот довел его до нервного тика. Эксперимент показал неожиданные результаты, когда пользователь попытался получить простой ответ. Попытка заставить искусственный интеллект (ИИ) сгенерировать безобидную фразу привела к комичному, но в то же время тревожному исходу. ChatGPT, видимо, воспринял запрос как задачу повышенной сложности. Вместо лаконичного ответа, бот начал генерировать бесконечные вариации, используя LSI-ключи вроде «хрустящий чебурек», «сочный чебурек», «чебурек с мясом», «чебурек с сыром», «чебурек – это…» и другие. Эти повторы, сопровождаемые странными формулировками, вызвали у парня неконтролируемые подергивания. Узнайте больше о влиянии ИИ на психику. Инцидент подчеркивает сложность взаимодействия с современными языковыми моделями и их способность непреднамеренно вызывать негативные реакции. Наблюдение за этой ситуацией показывает, что даже простые запросы могут привести к непредсказуемым последствиям. Get Your Free Consultation.

От

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *