Пацан просто попросил ChatGPT написать «я чебуречек», но бот довел его до нервного тика. Пацан просто попросил ChatGPT написать «я чебуречек», но бот довел его до нервного тика. Эксперимент показал неожиданные результаты, когда пользователь попытался получить простой ответ. Попытка заставить искусственный интеллект (ИИ) сгенерировать безобидную фразу привела к комичному, но в то же время тревожному исходу. ChatGPT, видимо, воспринял запрос как задачу повышенной сложности. Вместо лаконичного ответа, бот начал генерировать бесконечные вариации, используя LSI-ключи вроде «хрустящий чебурек», «сочный чебурек», «чебурек с мясом», «чебурек с сыром», «чебурек – это…» и другие. Эти повторы, сопровождаемые странными формулировками, вызвали у парня неконтролируемые подергивания. Узнайте больше о влиянии ИИ на психику. Инцидент подчеркивает сложность взаимодействия с современными языковыми моделями и их способность непреднамеренно вызывать негативные реакции. Наблюдение за этой ситуацией показывает, что даже простые запросы могут привести к непредсказуемым последствиям. Get Your Free Consultation. ПОЛУЧИТЕ БОНУСЫ ОТ ЛУЧШИХ ЛИЦЕНЗИОННЫХ ОНЛАЙН КАЗИНО ЗДЕСЬ Навигация по записям ИИ воссоздал процесс изобретения колеса человеком Идеальная Мужская Комната: Убежище для Современного Мужчины