Решили начать ядерную войну? Лучшие эксперты сломали тишину vosveteit.skИскусственный интеллект становится все больше и больше подталкивающих областей, где вы бы этого не сказали. Действительно, да, это также относится к ядерному оружию. Вопрос больше не «или», но «когда» ИИ становится неотъемлемой частью этих чрезвычайно чувствительных систем. Эксперты с опытом среды ядерной безопасности, а также Нобелевские призы согласны с тем, что технологические изменения неизбежны, Хотя человеческий фактор остается неизменным. Исключительные эксперты встретились в Чикагском университете в прошлом месяце, Ученые, бывшие военные и личность глобальной безопасности, чтобы обсудить будущее ядерного оружия в эпоху ИИ. Во время двухдневной семинарии они не только посвятили себя техническим возможностям, которые приносит искусственный интеллект, но и также Большой риск, с которыми придется столкнуться компанииПолем Скотт Саган, профессор Стэнфорда и признанный эксперт по ядерному разоружению, выразил фундаментальную идею: Возьмите vosveteit.sk от Telegram и подпишитесь на сообщения «Мы вступаем в эпоху, когда технологии перекрываются с глобальными вопросами безопасности, как никогда раньше». ИИ начинает мешать не только в повседневной жизнино также для решений, которые могут означать жизнь или смерть для миллионов людей. Основной основной отставной Боб Латифф сравнивает ИИ с электрическим током, что неизбежно проникает во все области. «Вполне естественно, что военные системы будут использовать эти технологии. Вопрос в том, как мы делаем это безопасно», - говорит Латифф, который также участвует в разработке судебного дня, символической мерой глобальной угрозы. Источник: Alones / shutterstock.com ИИ будет более привязан к армии как можно скорее Однако проблемы не являются незначительными. Джон Вольфшталь из Американской научной федерации предупреждаетЭто определение ИИ все еще тает, главным образом из -за обширных языковых моделей, таких как CHATGPT, которые создают путаницу в отношении фактических возможностей и пределов этих систем. Не упускайте из виду Универсальный рак мРНК -Vaccine может скоро стать реальностью. Ученые сообщают о огромном прогрессе «Тема часто поворачивает неверные идеи», - говорит Вольфшталь. Профессор Херб Лин из Стэнфорда задает самый важный вопрос: «Можем ли мы принять решение запустить ядерное оружие в руки компьютеров? У AI нет эмоционального или этического интеллекта, чтобы распознать сложность этих моментов». В ядерном сообществе, по крайней мере, есть согласие, человеческое суждение должно оставаться превосходным. В то же время существуют неопределенные предположения об использовании ИИ для анализа настроений мировых лидеров, таких как Путин или Си Джин-Пин. Тем не менее, Вольфсхал подчеркивает непредсказуемость: «Трудно сказать, действительно ли их официальные заявления отражают их истинные интересы или тактику». Такой анализ, следовательно, очень проблематичен. В то же время ИИ уже использует в поддержку решения, как напоминает генерал Энтони Коттон. Однако этот подход всегда требует контроля человека, чтобы предотвратить интерпретацию ошибок или злоупотребление технологиями. Автоматизация может принести новые риски безопасности. Таким образом, это может создать запутанные рекомендации, которые могут быть трудно проверить. Ядерное командование сегодня работает на строгих протоколах безопасности, Например, в Соединенных Штатах два человека должны активировать механизм в то же время, когда начинаются ракеты. Введение ИИ в таком процессе открывает вопросы о том, как гарантировать, что система не решает на основе ложного сигнала или атаки со стороны кибер -противников. Другая проблема - «Черный шкаф». Системы ИИ состоят из алгоритмов, процессы которых не являются людьми, известными людям (Как это ни парадоксально мы за их развитием). Боб Латифф предупреждает, что ИИ также может усилить гибкость, что может значительно повлиять на способность человека эффективно контролировать и правильные решения. ZDRS: Unsplash (Sander Sammy, Aleksei Ishkin), Pixabay (Geralt) Gorodenkoff / shutterstock.com Может ли ИИ начать войну? История Станислава Петрова, советского офицера, который предотвращает ядерную катастрофу в 1983 году Игнорируя ложное предупреждение системы, это подчеркивает неизменную роль человеческой интуиции и опыта. ИИ, в отличие от человека, не обладает способностью превышать основы его обучающих данных. Напряжение вокруг ИИ в ядерной сфере дополнительно увеличивает новую гонку с оружием. Администрация президента Дональда Трампа и Министерство энергетики описали ИИ как приоритет, сравнивая его с проектом Манхэттена, Что когда -то означало рождение ядерного оружия. Тем не менее, этот подход, по словам Хербал Лины, делает слишком большой акцент на конкуренцию при разработке ИИ и Его последствия остаются неопределенными и очень сложными. Между тем, международное сообщество борется с законодательными и этическими правилами для ИИ в военных системах. Задача ясна: как установить предел между человеческим контролем и автоматическими решениями, чтобы мир оставался в безопасности? Таким образом, ядерное оружие и искусственный интеллект связаны с полным танцем между прогрессом и риском - Вызов, чьи последствия мы все чувствуем.
Вам понравился предмет? Следите за нами на Facebook
Следите за нашей новой страницей Facebook и присоединяйтесь!
Группы: Естествознание
На главную


Естествознание