Технологические гиганты в панике! Китайцы нашли способ более дешевого ИИ и угрожающего Силиконовой долины | Vosveteit.sk
Мир искусственного интеллекта переживает предыдущий момент. Ведущие компании, такие как Openai, Microsoft и Meta, обращаются к глобальной доминирующей гонке в ИИ, под названием «дистилляция». Этот метод позволяет вам создавать более дешевые и более эффективные модели, которые доступны для более широкого диапазона пользователей. Портал Arstechnica предупредил эту интересную тему.
Техника «дистилляции» привлекла внимание после того, как китайская компания Deepseek использовала этот метод для создания мощных моделей ИИ на основе систем Meta и Alibaba с открытым исходным кодом. Этот шаг потрясла уверенность в технологическом превосходстве «Силиконовой долины» и привел к значительному снижению стоимости акций технологических гигантов.


Благодаря дистилляции, ИИ будет более доступным
Принцип «дистилляции» по отношению к ИИ состоит из использования большой языковой модели, так называемой. «Учитель», тренинговать меньшую «ученик». Образовательная модель генерирует данные, которые затем служат для обучения студенческой модели, тем самым эффективно предоставляя знания и прогнозы более крупной модели к меньшей.
Хотя «дистилляция» использовалась в течение многих лет, последние достижения в этой области показали, что этот метод будет все более и более полезным для начинающих компаний и разработчиков, ищущих эффективные способы разработки приложений на основе ИИ. Этот метод особенно эффективен в таких областях, как обработка естественного языка, компьютерное зрение и распознавание речи.
«Дистилляция почти волшебна», – говорит Оливье Годмип, глава платформы Openai. «Это процесс, в котором большая и умная модель создает меньшую модель, которая очень способна в определенных задачах, дешевых и быстрых».
Большие языковые модели, такие как OpenAI GPT-4, Google и Llam De Meta, требуют огромного количества данных и компьютерных мощностей, что приводит к высокой стоимости их разработки и обслуживания. «Дистилляция» позволяет разработчикам и компаниям получить доступ к этим моделям за небольшую часть стоимости, что ускоряет разработку приложений для искусственного интеллекта и позволяет им начинать на устройствах с ограниченной мощностью компьютера.
Не упускайте из виду


Включите эту функцию Android прямо сейчас. Может защитить вас от мошенничества! По умолчанию он отключен
OpenAI и Microsoft уже используют «дистилляцию» для обучения небольших моделей, доступных для разработчиков. Однако, согласно рынку, Deepseek Dixtelilled Openai модели для обучения своего конкурента, что выступает против условий использования OpenAI.


Стив Джонсон/ Unsplash.com
Дистилляция также означает компромисс
Эксперты отмечают, что, хотя «дистилляция» позволяет создавать модели мощности, эти модели более ограничены по сравнению с крупными языковыми моделями.
«Дистилляция – это интересное урегулирование», – говорит Awadallah из Microsoft Research. «Если вы уменьшите модель, вы неизбежно уменьшите ее навыки».
Тем не менее, дистиллированные модели достаточно мощные для таких задач, как чат -сапоги в обслуживании клиентов или работа на небольших устройствах. «Всякий раз, когда вы можете сократить расходы и получить желаемую деятельность, есть несколько причин, чтобы не сделать это», – добавляет Дэвид Кокс из IBM Research.
«Распространение» является проблемой для бизнес -моделей крупных компаний искусственного интеллекта. Хотя разработчики могут использовать дистиллированные модели, их работа дешевле, что вызывает менее высокий доход для моделей. Тем не менее, этот метод также открывает новые возможности для инноваций и демократизации технологий ИИ.
КОММЕНТЫ