«Европа идет неправильно», - говорит Мета. Он отказывается подписывать код ЕС в области искусственного интеллекта vosveteit.sk
Как один из первых, Европейский союз создал закон, который будет регулировать пути в будущем, в котором будет возможно использовать искусственный интеллект. Ай -Технологии скрывают огромный потенциал. В то же время многие эксперты понимают, что без строгих правил, эта технология может быть использована в способах, которые могут серьезно вмешиваться в наши свободы.
AI AI подписал несколько крупных компаний. Как сообщает CNBC, Meta отказывается подписать кодекс поведения в соответствии с законом AI. Склонен, что Европа, по мнению общества, неверно ходит по отношению к ИИ.
На прошлой неделе Европейская комиссия представила последнюю итерацию закона AI. Если все идет в соответствии с планами, правила, представленные в этом акте, должны состояться в следующем месяце. Как мы уже упоминали, цель ИИ как действий направлена на повышение прозрачности и безопасности этой революционной технологии.
«Я полагаю, что Европа плохо справляется с искусственным интеллектом. Европа дала несколько моментов, которые представили юридическую неопределенность для разработчиков и моделей.


Несколько компаний выразили неодобрение
Мета – не единственный, кто выражает негативное отношение к кодексу поведения. Они также выступили против ASML Holding и Airbus. Эти компании подписали письмо с просьбой отложить закон не менее двух лет. Однако Openai выразил свою приверженность подписанию новых правил.
«Мы делимся проблемами, которые подняли ASML Holding и Airbus. Закон AI – это правила, которые будут защелкнуть развитие и развертывание открытий и моделей в Европе. Они также поражают европейские компании, которые хотят построить свой бизнес в области искусственного интеллекта», – пишет Каплан.
Цель принятого AI AI -защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокой художественной разведки, пишет портал Европейского парламента. На практике этот закон запретит использование искусственного интеллекта таким образом, чтобы поставить под угрозу права граждан. Это означает, что искусственный интеллект не может быть использован для создания баз данных на лице, биометрической категоризации, прочтения эмоций или создания системы социальной оценкиПолем В то же время искусственный интеллект, который манипулирует человеческим поведением или злоупотребляет уязвимостьми людей, не будет использоваться.
Не упускайте из виду


Предупреждение! Эти популярные словацкие машины могут быть взломаны Bluetooth. В машине может даже слушать вас
Еще одна замечательная забота – то, как искусственный интеллект может быть использован для полицейских целей. В связи с этим прогнозирующие функции часто перегибаются. Они могут предсказать преступление на практике, прежде чем это действительно произойдет. Они используют математику и прогнозирующий анализ, следуя нескольким различным факторам. Конечно, такое использование искусственного интеллекта запрещено законом. Тем не менее, искусственный интеллект может быть использован для полицейских целей в крайних и необходимых случаях.
Как пишет портал Европейского парламента, используйте искусственный интеллект, чтобы идентифицировать подозреваемого в режиме реального времени только в тщательно определенных ситуациях. Полицейские силы могут использовать его только в том случае, если они выполняют строгие гарантии. Идентификация в реальном времени может произойти, если его использование ограничено во времени и географически, а суд заранее передал постановление суда. Среди ситуаций, когда биометрическая идентификация с ИИ приемлема, является поиск пропавших людей или предотвращение террористической атаки.


Европа готова к будущему?
Кроме того, закон также регулирует, что если ИИ помечен как высокий риск, по любой причине, человек должен контролировать свою деятельность. Например, модели ИИ, которые ведут людей, могут считаться рискованными в будущемПолем В этом существует риск, что если ИИ неправильно оценивает даже один фактор, он может дискриминировать кандидатов. Искусственный интеллект в судебной власти также считается чрезвычайно рискованным.
Однако, хотя мы не рискуем судить искусственный интеллект за преступления или преступления, однако, Закон ИИ направлен на создание солидных границ, прежде чем они действительно понадобятся. ПЧасто относится к тому, что технологии передаются законами, и до тех пор, пока их законы не будут захвачены, существует серая зона, в которой технологии могут быть неправильно использованы безнаказанностью.
КОММЕНТЫ