Регистрация
*
*
*

Leave the field below empty!

Новое AI ADACE может предоставить токсичные комментарии, прежде чем вы увидите их vosveteit.sk


9 марта 2025 в 03:31
на сайт, и вы сможете вступить в группу.

Новое AI ADACE может предоставить токсичные комментарии, прежде чем вы увидите их vosveteit.sk

Открытая модель машинного обучения, разработанная командой ученых из Австралии и Бангладеш, вызывает революцию в выявлении токсичных комментариев в социальных сетях. С заметной точностью 87,6% эта модель открывает путь к более безопасному цифровому взаимодействию. TechXplore указал на предмет.

Исследователи из Восточного западного университета в Бангладеш и Университета Южной Австралии представили свою модель на Международной конференции по инновациям и разведке для информации, компьютерных технологий и технологий в 2024 году. Их модель преодолевает существующие автоматические системы обнаружения, которые часто дают ложные положительные результаты, без необходимости ручной идентификации вредоносных комментариев.

Возьмите vosveteit.sk от Telegram и подпишитесь на сообщения

Модель использует передовые методы обработки естественного языка для анализа текстовых формул и выявления потенциально вредного контента. В отличие от современных методов умеренности контента, используемого в социальных сетях, Это часто зависит от ключевых слов или простых алгоритмов, этот новый подход учитывает контекст и нюансы языка, что приводит к более точным результатам.

Каковы самые большие преимущества и недостатки ИИКаковы самые большие преимущества и недостатки ИИ
Источник: vosveteit.sk, ai

Вопрос в том, как будет выглядеть такая сеть

«Массовый рост киберзапугивания и враждебных проявлений в последние годы привел к серьезным проблемам психического здоровья, самооценку, а также в крайних случаях и самоубийстве», -администратор, эксперт по науке о данных Afia Ahsan.

Удаление токсичных комментариев из онлайн -сетей имеет важное значение для ограничения растущего злоупотребления и обеспечения респектабельного взаимодействия. Согласно недавнему исследованию, проведенному исследовательским центром Pew, количество случаев киберзапугивания среди молодежи удвоилось за последние пять лет, в то время как до 59% подростков сообщают, что они испытали некоторую форму преследования в Интернете.

Команда проверила три модели машинного обучения на наборе комментариев на английском и бенгальском языке с таких платформ, как Facebook, YouTube и Instagram. Оптимизированный алгоритм достиг точности 87,6 %, превышая другие модели с точностью 69,9 % и 83,4 %Полем

Не упускайте из виду

Хакерский телефонХакерский телефон

Включите эту функцию Android прямо сейчас. Может защитить вас от мошенничества! По умолчанию он отключен

«Наша оптимизированная модель SVM (поддержка векторной машины) была наиболее надежной и наиболее эффективной, что делает ее любимым выбором для развертывания в реальных сценах», – объясняет это и ИИ, Абдуллахи Чоудхури.

SVM – это метод машинного обучения, используемое для классификации и регрессии, и особенно эффективна для анализа текстовых данных.

Умела Интеллект ИИУмела Интеллект ИИ
Источник: DRN Studio / shutterstock.com

Такой ИИ приносит много преимуществ

Реализация этой модели в реальных социальных сетях может принести важные преимущества. Для пользователей это будет означать более безопасную и приятную онлайн -среду с меньшим токсичным содержанием. Операторы платформы могут более эффективно смягчить контент, снизить затраты на ручную режим и улучшить общее качество взаимодействий на своих платформах.

Несмотря на многообещающие результаты, важно учитывать этические аспекты автоматического обнаружения контента. Существует риск чрезмерной цензуры или неправильной классификации безопасных комментариев, таких как токсичные. Исследователи подчеркивают необходимость регулярной оценки и улучшения модели, чтобы минимизировать эти риски.

Будущие исследования будут сосредоточены на улучшении модели путем интеграции методов глубокого обучения и расширения набора данных с другими языками и региональными диалектами. Команда также ищет партнерские отношения с социальными сетями и онлайн -платформами для реализации этой технологии. «Наша цель – создать онлайн -пространство, где люди чувствуют себя в безопасности и могут свободно выражать свои взгляды, не опасаясь издевательств или злоупотреблений», – добавляет Ахсан. «Эта модель является важным шагом в этом направлении, но это только начало. При продолжении исследований и сотрудничества с промышленностью, мы считаем, что можем достичь еще более высокой точности и более широкого охвата.

Реализация этой технологии может принести революцию в умеренном онлайн -контенте, снизить стоимость ручной модерации и значительно улучшить качество онлайн -дискуссий. Для социальных сетей и онлайн -платформ это возможность создать более безопасную и позитивную среду для своих пользователейчто может привести к повышению удовлетворения пользователей и долгосрочной лояльности.

Следуйте по каналу vosveteit.sk в программе WhatsApp


Автор публикации

не в сети 30 минут

Christine Young

Helllo, boys, boys, boys

  • Галерея пользователя
  • Гостевая пользователя

Мастер оставил отзыв:

Good looking

Расшарить

158

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля