Двойники с искусственным интеллектом могут вызвать фильтрацию данных, проблему отказываются исправлять
Искусственный интеллект близнецов, разработанный Google, стремительно набирает популярность среди пользователей по всему миру. В некоторых случаях она даже превзошла известного конкурента Chatgpt компании Openai. Однако, несмотря на растущий спрос и положительную реакцию, угроза безопасности подверглась критике, и Google отказывается устранять ее немедленно.
Уязвимость увеличивает риск фильтрации конфиденциальных данных
Исследователи безопасности обнаружили, что Gemini склонна к атакам с контрабандой ASCII, что может привести к незаконному разделению конфиденциальной информации. Этот тип атаки позволяет злоумышленникам скрыть вредоносные вызовы в электронных письмах или приглашениях календаря. Если пользователь просит Близнецов кратко изложить содержание сообщения, ИИ может непреднамеренно активировать эти скрытые инструкции.
Конкурентам, таким как Chatgpt, Claude или Copolitan, удалось эффективно решить эту проблему благодаря построенным защитным механизмам от таких угроз. И наоборот, близнецы, наряду с другими моделями, такими как Deepseek и Gorus, оказались менее долговечными. Самый большой риск заключается в том, что Gemini теперь напрямую связана с Google Workspace, что может поставить под угрозу не только частные, но и деловые данные.
Google отказывается исправлять ошибку
Хотя компания Google полностью осведомлена о существовании этой уязвимости безопасности, она объявила, что не планирует ее исправлять в обозримом будущем. По ее мнению, она описала эту проблему как «атаку социальной инженерии», и ответственность перешла на конечных пользователей. Компания ожидает, что пользователи предпримут шаги для обеспечения безопасности при работе с платформой.
Это решение вызвало волну критики среди киберэкспертов. Исследователь безопасности, обнаруживший ошибку, обратил внимание Google на конкретные случаи, когда Gemini интерпретировала вредоносные запросы и реагировала на них. Однако Google не указывает, что планирует разрешить ситуацию, подвергая миллионы пользователей возможному риску.
Внимание на месте
Подобные недостатки безопасности могут иметь серьезные последствия, поскольку злоумышленники могут использовать искусственный интеллект для получения конфиденциальной информации непосредственно из сообщений или даже для обеспечения несанкционированного доступа к данным. В частности, пользователям необходимо позаботиться о неизвестных сообщениях или задачах, отправленных близнецами на обработку. Кроме того, рекомендуется лучше понимать принципы кибербезопасности и использовать ИИ с большей осторожностью.
Ситуация обращает внимание на необходимость более глубокой ответственности разработчиков искусственного интеллекта, которым приходится сталкиваться с такими рисками. Однако, хотя Google и решит решить эту проблему, пользователям придется обеспечить защиту своих данных.
КОММЕНТЫ