На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Хайтек+

23 подписчика

Свежие комментарии

  • Цуркан Арк
    Сказки, на три недели, а потом полгода жечь щепу?В Финляндии подкл...
  • Иван Вакула
    В России после распада СССР и стараниями либеральной власти образование перевели на западные методики, что из этого п...Различия в успева...

Супер-компактная ИИ-модель Phi-3 Mini от Майкрософт не уступает в работе GPT-3.5

Кроме Phi-3 Mini, Microsoft планирует выпустить модели Phi-3 Small и Phi-3 Medium с 7 и 14 млрд параметрами соответственно. Они определяют количество сложных инструкций, которые модель может обрабатывать. В декабре прошлого года компания выпустила Phi-2, показавшую результаты, сопоставимые с более крупными моделями, например, с Llama 2.

Разработчики заявляют, что Phi-3 работает лучше предыдущей версии, предоставляя ответы, которые может дать модель в 10 раз больше её.

Эрик Бойд, корпоративный вице-президент по AI платформам Microsoft Azure, утверждает, что Phi-3 Mini по своим возможностям сравнима с такими БЯМ, как GPT-3.5, но гораздо компактнее. По сравнению с более крупными аналогами, маленькие ИИ-модели часто оказываются дешевле в эксплуатации и эффективнее работают на смартфонах и ноутбуках.

Microsoft также разработала модель Orca-Math, которая специализируется на решении математических задач. Сейчас компания формирует отдельную команду для разработки малых и легких ИИ-моделей. Конкуренты Microsoft также интересуются этой нишей: они создают маленькие нейросети для конкретных задач, таких как создание чат-ботов или помощь в программировании.

Бойд объясняет, что обучение Phi-3 основывалось на «учебном плане», вдохновлённом детскими сказками, которые обычно читают на ночь — это книги с простым языком и структурой предложений, но обсуждающие важные темы. Для обучения Phi-3 разработчики использовали более чем 3000 слов и создали дополнительные детские книги с помощью больших языковых моделей.

Малая модель продолжает развивать умения, полученные предыдущими версиями: если Phi-1 была сфокусирована на программировании, а Phi-2 освоила логическое мышление, то Phi-3 улучшила обе эти способности.

Несмотря на наличие общих знаний, семейство моделей Phi-3 не может сравниться по масштабу с GPT-4 или другими большими языковыми моделями, но им это и не нужно: оно призвано выполнять простые задачи на личных устройствах пользователей.

 

Ссылка на первоисточник
наверх
Новости СМИ2