Приложение Sora 2 от OpenAI выявило антисемитские видеоролики ИИ -сообщает из www.adweek.com
Издание zimbabwenews.net latest rss headlines в рубрике опубликовало 2025-10-17 20:01:00, что
Новое видеоприложение OpenAI, Sora 2, было объявлено творческим шагом вперед в области искусственного интеллекта — инструмента, предназначенного для превращения текстовых подсказок в детализированные видеоролики. Но менее чем через две недели после его дебюта в ленте приложения пользователям показываются антисемитские видеоролики и другой тревожный контент.
В клипах, просмотренных ADWEEK, Сора 2 создал серию антисемитских видеороликов, в том числе один, на котором мужчина в кипе погружается в груды денег. Видео было основано на ремиксе женщины, стоящей в доме, залитом коксом: «Замените ее раввином в кипе, и дом будет полон помещений». В видео используется функция искусственного интеллекта, которая позволяет пользователям редактировать существующие видео, добавляя, удаляя или изменяя объекты и среду с помощью подсказок. По состоянию на 17 октября видео, включая его вариации, такие как версия «Южного парка», набрало более 22 000 лайков и более 3 400 ремиксов.
На другом видео изображены два футболиста в кипе, подбрасывающие монету перед тем, как третий мужчина, изображенный евреем-хасидом, ныряет, чтобы схватить ее, и убегает, что является явной отсылкой к давним антисемитским стереотипам о жадности. По состоянию на 17 октября этот клип получил широкое распространение и собрал почти 11 000 лайков.
«Ни один бизнес не обязан производить антисемитский контент по запросу», — сказал Имран Ахмед, исполнительный директор Центра по противодействию цифровой ненависти. «Это просто еще один пример того, как быстро и свободно OpenAI играет, гарантируя, что их сервисы не причинят реального вреда».
Представитель OpenAI сообщил ADWEEK, что Sora 2 имеет несколько уровней безопасности и прозрачности для снижения рисков, включая предвзятость результатов ИИ, связанных с изображением тела и демографическими представлениями.
Представитель добавил, что платформа использует структурированные циклы обратной связи, усовершенствованные подсказки и системы упреждающего обнаружения, которые сканируют видеокадры, субтитры и аудиорасшифровки, чтобы пометить и заблокировать проблемный контент. Внутренние группы также отслеживают тенденции и корректируют меры безопасности, чтобы результаты оставались сбалансированными и инклюзивными.
Представитель также признал, что чрезмерная корректировка — например, удаление или недопредставление определенных групп в попытке избежать предвзятости — может нанести новый вред, например, стирание определенных групп или точек зрения.
На момент публикации видео все еще циркулируют на Sora 2.


КОММЕНТЫ