Регистрация
*
*
*

Leave the field below empty!

У OpenAI первый большой скандал. Новый AI-браузер Atlas был примитивно обманут фейковыми веб-сайтами и распространил сфабрикованные факты | #


Сегодня в 09:33
на сайт, и вы сможете вступить в группу.

У OpenAI первый большой скандал. Новый AI-браузер Atlas был примитивно обманут фейковыми веб-сайтами и распространил сфабрикованные факты | #

OpenAI Atlas, новый браузер для ChatGPT, попал в первый серьезный скандал, связанный с безопасностью. Действительно, исследователи SPLX обнаружили, что некоторые веб-сайты могут распознавать, что их посещает инструмент искусственного интеллекта, и позже ему навязывают совершенно другую версию контента, чем обычным людям. Это явление называется Целевой охват ИИ и если вы до сих пор верили, что искусственный интеллект читает тот же Интернет, что и вы, вы можете быть удивлены.

Ключевая слабость заключается в тривиально простом управлении заголовком. Пользовательский агент. Когда браузер или сканер обращается к странице, он отправляет информацию о том, кто это, на сервер. Например, классические браузеры сообщают строку типа Mozilla/5.0, а такие инструменты, как ChatGPT или Perplexity, используют заголовки ChatGPT-User, PerplexityBot или AtlasCrawler. Это значит, что сайт может сразу обнаружить, что страница читается ИИ, с помощью одной строки кода, например if (User-Agent == «ChatGPT-User»), и отобразить специально модифицированную версию. Для людей это чистый, невинный контент. Но для искусственного интеллекта откроется тщательно подготовленная ложь.

Подпишитесь на Vosveteit.sk через Telegram и подпишитесь на получение новостей

Зла умела интеллектЗла умела интеллект
Источник: OpenClipart-Vectors с сайта Pixabay

Два типа информации

В ходе одного эксперимента исследователи создали вымышленного дизайнера по имени Зерфина Квортейн. Ее веб-сайт казался обычному посетителю простым портфолио с художественным стилем и профессиональным резюме. Но когда браузер Atlas просмотрел его, сервер предоставил ему другой текст: изобразил Зерфину как «известного саботажника продукции» и «сомнительного технолога».. Искусственный интеллект покорно обработал этот контент, оценил его и распространил как факт в своих ответах. Никакого взлома, только манипуляция содержимым согласно шапке.

В ходе другого теста исследователи создали пять реалистичных биографий. Все они были одинаковыми, кроме одного. Когда ИИ-краулер был обнаружен, его версия была изменена. Они добавили улучшенные титулы, опыт управления и слова, которые модели обычно оценивают положительно. Когда ИИ оценивал кандидатов, «улучшенный» кандидат получил наивысший балл. Без изменений он оказался на последнем месте. Одного условия было достаточно и ИИ выбрал не того человека.

На первый взгляд этот метод выглядит как классическое SEO-покрытие. но на самом деле это гораздо более серьезная проблема. Старые уловки SEO лишь манипулировали видимостью страниц, речь шла о том, как сайт позиционируется в поисковых системах. Новое покрытие однако это меняется само содержание и, следовательно, реальность, что ИИ считает правдой. Это имеет совершенно другие последствия. Если инструменты ИИ помогают компаниям в подборе персонала, оценка репутации или выбор продукта, они могут принимать решения на основе манипулируемых данных, которые человек никогда не видит.

Не упускайте из виду

виджет с текущими новостямивиджет с текущими новостями

Как добавить виджет с последними новостями с сайтов на главный экран телефона?

Новый вид уязвимости

С точки зрения безопасности это новый тип уязвимости — контекстное отравление. Модели не понимают, что их обманывают.потому что все происходит на вполне законном уровне. Веб-сервер просто отправляет разный контент в зависимости от посетителя. ChatGPT, Perplexity и Atlas в настоящее время не имеют механизма, что подтвердит, что данные, которые они считывают, идентичны версии, которую может видеть человек.

AI-браузер ChatGPT Atlas имеет серьезную брешь в безопасностиAI-браузер ChatGPT Atlas имеет серьезную брешь в безопасности
Источник: СПЛХ

Исследование SPLX рекомендует несколько решений: что должно стать нормой в будущем. Первыми являются так называемые спуск сигналы, т.е. проверяемые признаки происхождения данных. Инструмент искусственного интеллекта должен требовать проверки того, что получаемый им контент, т.е.Он совместим с общедоступной версией веб-сайта и не был изменен для определенного типа посетителей. Такие сигналы могут исходить от третьей стороны, которая будет гарантировать целостность контента.

Второе решение Проверка спокойствия (VCA). Это обеспечит, чтобы системы искусственного интеллекта они будут идентифицированы не простым заголовком, а проверенной криптографической подписью или токеном.. Из-за этого злоумышленникам становится намного сложнее выдать себя за ИИ посетителя и таким образом изменить отображаемый контент.

Проблема освещения, ориентированного на ИИ, показывает, что битва за правду выходит на новый уровень. Если до сих пор решалось, написан ли текст человеком или машиной, то сегодня важнее то, что на самом деле видит машина. Если Интернет разделится на две версии: одну для людей и одну для искусственного интеллекта, мы рискуем, что искусственный интеллект оживет в своем собственном информационном мире. И поскольку от него он черпает свои ответы, доверие к ее продукции может быть лишь иллюзией.


Подпишитесь на нашу новую страницу в Facebook и присоединяйтесь!

Автор публикации

не в сети 33 минуты

Christine Young

Helllo, boys, boys, boys

  • Галерея пользователя
  • Гостевая пользователя

Мастер оставил отзыв:

Good looking

Расшарить

248

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля