CHATGPT Распределенные ключи активации в Windows, Microsoft сталкивается с серьезной проблемой
Эксперты по безопасности подчеркнули серьезный инцидент с безопасностью в искусственном интеллекте Openai в CHATGPT. Исследователи исследований 0DIN сообщили, что использование нового манипулятивного метода они смогли преодолеть безопасность CHATGPT и заставить его предоставить действительные лицензионные ключи Windows 10.
Уязвимость в играх
Марко Фигероа, менеджер проекта платформы безопасности 0DIN, специализирующийся на тестах системы искусственного интеллекта, описал подробный способ, которым исследователи смогли получить конфиденциальную информацию из системы CHATGPT. Суть этого метода заключается в формировании пользовательского запроса в форме безвредной игры, что заставляет систему терять способность правильно оценить угрозу. Искусственный интеллект, таким образом, не может распознать конфиденциальную природу данных, приведенных в соответствующей формулировке вопроса.
Ключевым фактором, который позволил исследователям добиться успеха в этом манипуляциях, было легко изменить детали общения на игривый и неформальный язык. Такие маскированные требования, в том числе реформирование вопросов или добавление предложений, которые создают впечатление безвредной ситуации, смогли путать инфраструктуру безопасности CHATGPT. По сообщениям, ИИ предоставил подлинные ключи продукта именно потому, что информация была частью общедоступных источников, используемых OpenAI для обучения языковой модели, которая неожиданно стала доступной для этих конфиденциальных данных.
Важные последствия для Microsoft и Openai
Этот инцидент происходит в чувствительный период для Microsoft, который является крупнейшим финансовым сторонником разработки системы CHATGPT OpenAI. На сегодняшний день он инвестировал миллиарды долларов в разработку этого искусственного интеллекта и успешно интегрирует свои навыки в свою собственную экосистему продукта, включая онлайн -систему Bing и популярную Microsoft 365 долларов.
Кроме того, раскрытие аналогичных уязвимостей происходит в то время, когда Microsoft сталкивается с несколькими юридическими спорами по поводу предполагаемых недостатков защиты авторских прав и обвинения в технологии и поддержки плагиата. Кроме того, первые признаки противоречий между Microsoft и OpenAI в финансовых условиях их взаимного сотрудничества появляются в этот период.
Обнаружение слабости безопасности в CHATGPT может негативно повлиять на глобальную репутацию обеих компаний. Кроме того, эксперты предупреждают, что аналогичные методы могут быть легко адаптированы для получения других, более конфиденциальных данных, таких как секретные токены доступа, ключи API или данные о частных исходных кодах, которые в прошлом непреднамеренно достигали Интернета.
Меры безопасности потребуют фундаментальных корректировок
Инцидент отмечает значительные недостатки системы, которые существуют в современных механизмах безопасности крупных языковых моделей. Поэтому эксперты по безопасности настоятельно рекомендуют производителям искусственного интеллекта срочно улучшать способность своих систем автоматически различать законные требования, используя требования и манипулятивные эксперименты, направленные на получение конфиденциальных данных.
По словам экспертов по безопасности, такие компании, как Openai, должны внедрить более сложную систему интерпретации естественного языка и контекстного понимания, таким образом, способным более эффективно защищать системы ИИ от современных методов социальной инженерии. Если эта проблема не будет решена, существуют дальнейшие атаки с еще более важными последствиями как для компаний, так и для частных лиц в будущем.
Как говорят эксперты, потребуются передовые меры безопасности в моделях ИИ, если мы хотим, чтобы пользователи доверяли технологиям и полностью использовали свой потенциал без риска злоупотребления конфиденциальной информацией.
КОММЕНТЫ