В дверь стучится новый метод мошенничества. Эта афера с искусственным интеллектом вскоре может распространиться и на Словакию Vosveteit.sk
Всего несколько лет назад глубокие фальшивые голоса были просто интересной демонстрацией возможностей искусственного интеллекта. Однако сегодня они относятся к числу наиболее быстро растущих киберугроз. Таким образом, технологии, способные имитировать человеческий голос в режиме реального времени, попали непосредственно в руки обычных пользователей и, к сожалению, также в руки киберпреступников. То, как мошенники используют эти инструменты, уже наносит реальный финансовый ущерб. На проблему обратил внимание портал Techspot.
Современные генераторы речи могут имитировать любой голос, основываясь всего на нескольких секундах записи. Вы записываете короткое видео, делитесь разговором или просто случайно загружаете аудиозапись в социальную сеть и тем самым даете злоумышленнику именно то, что ему нужно. В результате получается синтетический голос, который звучит практически неотличимо от оригинала (вашего). Через несколько минут кто-то с «вашей» интонацией может позвонить коллеге, клиенту или родственнику и попросить денег или доступа к счету.


Хакеры таким образом злоупотребляют искусственным интеллектом
За последний год было немало случаев, когда с виновниками все в порядке. они имитировали голос родственника стариков, чтобы выманить у них сбережения. В бизнесе ситуация еще сложнее.
Были случаи, когда фальшивый голос руководителя убеждал бухгалтера немедленно одобрить перевод на «срочный проект». Все было на записи, начиная от знакомого голоса, типичной манеры выражения, вплоть до едва уловимых пауз в речи. Вся афера была спланирована до мельчайших деталей.
Проблема не только в том, что технология стала привлекательной. Основной риск – это его доступность. Потому что эти инструменты уже не требуют каких-либо профессиональных знаний. Все, что вам нужно, — это бесплатное программное обеспечение или простое приложение, часто за несколько евро в месяц. Для человека с плохими намерениями это почти идеальная манипуляция. Просто подготовьте короткий голосовой текст и говорите в режиме реального времени чужим голосом во время видеозвонка или простого телефонного звонка.
Не упускайте из виду

Как добавить виджет с последними новостями с сайтов на главный экран телефона?
Эксперты по безопасности отмечают, что такая угроза затрагивает даже те области, которые мы до сих пор считали надежными. Например, речь идет еще и о биометрической аутентификации голосом. Если алгоритм сможет достоверно воспроизвести интонацию и мелодику речи, система голосовой аутентификации теряет смысл. Поэтому банки и корпорации должны пересмотреть способы идентификации клиентов и сотрудников.


От этой аферы не застрахован практически никто!
С другой стороны, уже существуют инструменты, которые пытаются обнаружить эти фальшивые голоса. Они анализируют «микроскопические» ошибки интонации или частоты, которые обычное ухо не уловит.. Но с каждой новой моделью ИИ грань между настоящим голосом и имитацией стирается.. Защитные механизмы часто отстают от атак.
Поэтому в некоторых компаниях вводят новые внутренние правила. Например, двухэтапная проверка телефонных запросов или проверка по невербальному каналу. В то же время в Евросоюзе обсуждаются правовые подходы, которые заставят создателей дипфейковых технологий маркировать синтезированный контент.
Но самая большая угроза заключается не в самой технологии, а в том, как она меняет доверие. Если мы перестанем быть уверены, что голос на другом конце провода принадлежит знакомому нам человеку, это изменит саму основу общения. Клоны Deepfake — это не просто еще одна IT-угроза. Они являются проверкой нашей способности верить в реальность цифрового мира, и с течением времени ситуация будет становиться все хуже и хуже. Наиболее восприимчивыми становятся пожилые люди и дети.


КОММЕНТЫ