Регистрация
*
*
*

Leave the field below empty!

ИИ сможет называть вас преступником, прежде чем вы что -либо сделаете. Британская работа по технологиям как отчеты меньшинства | Vosveteit.sk


14 апреля 2025 в 01:25
на сайт, и вы сможете вступить в группу.

ИИ сможет называть вас преступником, прежде чем вы что -либо сделаете. Британская работа по технологиям как отчеты меньшинства | Vosveteit.sk

Британское правительство сталкивается с вниманием общественности после того, как они сообщили, что Он активно работает над разработкой алгоритма, чтобы предсказать убийства, прежде чем они станутПолем Страшные новости были замечены британским сервером Guardian. Власти говорят, что на данный момент это всего лишь исследовательский проект. Как я указал в названии, сравнение с научно -фантастическим фильмом Отчет меньшинства (2002)Так что вместо этого я. В фильме был офис, на основании которого, Полиция арестовала людей на основе прогнозов трех клоуновПолем

Британский проект был изначально назван “Продвижение проекта убийства Цель состоит в том, чтобы определить тех, кто мог бы совершить насильственные преступления в будущемПолем Этот факт был раскрыт StateWatch в соответствии с Законом о свободном доступе.

Возьмите vosveteit.sk от Telegram и подпишитесь на сообщения

Согласно StateWatch, которая является организацией по защите гражданских прав, группа разработчиков работала с данными от 100 000 до 500 000 человек. Данные включали имена, дни рождения, секс и этническое происхождение. Гораздо более шокирующей была конфиденциальная информация, такая как психическое здоровье, зависимость, тенденции самоубийства, самопрокация или инвалидность! В то время как власти полагаются на эти данные о жертвах преступлений, гражданская организация настаивает на том, что они также попадают в базу данных!
София Лайалл из StateWatch описала этот абсурд.

«Еще один крутой и антиутопический пример государственных усилий по внедрению так называемых прогнозных систем борьбы с преступностью».

По словам Софии Лайалл, эти повторяющиеся исследования показывают, что Эти алгоритмы неправильны, изогнуты и часто укрепляются существующими систематическими неравенствамиПолем Наиболее опасным является то, что Они полагаются на данные из институциональных расистских структур, таких как полиция или министерство внутренних дел.и. Однако представители Министерства юстиции защищаются. Они утверждают, что этот проект является лишь продолжением существующих инструментов для оценки риска повторения, то есть вероятность того, что заключенные совершит дальнейшие преступления после освобождения. Цель состоит в том, чтобы проанализировать, добавить ли новые данные из баз данных полиции и тюрем повысить точность прогнозов.

«Это просто исследование», – говорится в официальном мнении министерство.

Несколько состояний рассмотрим или проверяют аналогичную систему

Британия не единственный, кто идет в этом направлении. По крайней мере три другие страны известны. В Южной Корее есть очень похожий проектПолем В нем анализируются записи камер безопасности и следят за поведенческими моделями, чтобы обнаружить возможные преступления, прежде чем их совершить. В 2022 году исследователи Соединенные Штаты утверждали, что они разработали алгоритм, который мог бы предсказать преступление в неделю вперед с точностью до 90 %. В Китае есть разговоры о системах, которые создают профили гражданПолем Китайские системы классифицируются, поэтому, к сожалению, нет больше информации. Китай, как известно, управляет своими гражданами. Китайская система стремится идентифицировать диссидентов или потенциальных преступников.

Не упускайте из виду

Хакерский телефонХакерский телефон

Включите эту функцию Android прямо сейчас. Может защитить вас от мошенничества! По умолчанию он отключен

Умела интеллект Zla umela IntelligenceУмела интеллект Zla umela Intelligence
Источник: vosveteit.sk, ai

Остается вопрос, Когда прогноз перестает быть прогнозной защитой и, наоборот, становится вмешательством в свободу? Что, если преступление никогда не наступило. Представьте, что вы думаете, что только от гнева вы будете причинять боль, и система сразу же назовет вас возможным преступником.

Если правительство начнет принимать решение о нашем будущем практически только на основе алгоритма, который оценивает «вероятность», чем настоящие дела, как далеко мы находимся от того, что мы считали художественной литературой в фильме?


Следите за нашей новой страницей Facebook и присоединяйтесь!

Автор публикации

Helllo, boys, boys, boys

  • Галерея пользователя
  • Гостевая пользователя

Мастер оставил отзыв:

Good looking

Расшарить

249

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля