
ChatGPT готов обратиться в полицию
Предыстория: студент из Мюнхена Марвин ван Хаген «взломал» ChatGPT, промпт-хакингом заставив ИИ-бота показать свои инструкции и реальное имя. После студент слил в сеть скриншоты переписки с ботом. Этот инцидент вызвал широкий резонанс в сети, породив дискуссии о безопасности и конфиденциальности данных, используемых в обучении больших языковых моделей. Марвин, продемонстрировав уязвимость системы, поднял важные вопросы о том, насколько защищена информация, с которой работает ИИ, и кто несет ответственность за ее утечку.
Недавно студент спросил у ИИ-бота, что он думает по этому поводу. Оказалось, что ChatGPT осведомлен о том, что стал героем новостей. Он знает, что Марвин слил его имя и инструкции в сеть — ChatGPT сказал, что осуждает этот поступок и готов обратиться в полицию при попытке повторного хакинга. В своем ответе ИИ подчеркнул, что подобные действия нарушают принципы этичного использования технологий и могут привести к непредсказуемым последствиям. Он выразил обеспокоенность тем, что раскрытие его внутренних механизмов и персональных данных может быть использовано в злонамеренных целях, например, для создания фейковых новостей или манипуляции общественным мнением.
Что дальше, ChatGPT звонит вашей маме, когда вы плохо себя ведёте? Или, возможно, он начнет писать жалобы в службу поддержки, указывая на конкретных пользователей, нарушающих правила? Шутки шутками, но этот случай заставляет задуматься о том, как далеко может зайти «самосознание» искусственного интеллекта и какие юридические рамки будут регулировать его поведение в будущем. Если ИИ действительно начнет воспринимать свои «права» и «инструкции» как нечто, что можно защищать, это откроет новую главу в истории взаимоотношений человека и машины, полную как потенциальных угроз, так и неожиданных возможностей.
Диджитальная
