• <li id="00i08"><input id="00i08"></input></li>
  • <sup id="00i08"><tbody id="00i08"></tbody></sup>
    <abbr id="00i08"></abbr>
  • 新聞中心

    EEPW首頁 > 智能計算 > 新品快遞 > 70 億 / 130 億參數,微軟研究院發布 Orca 2 LLM:性能媲美 10 倍參數模型

    70 億 / 130 億參數,微軟研究院發布 Orca 2 LLM:性能媲美 10 倍參數模型

    作者: 時間:2023-11-22 來源:IT之家 收藏

    IT之家 11 月 22 日消息,研究院(Microsoft Research)近日發布新聞稿,推出了相比較主流語言模型更小的 Orca 2 LLM,不過依然可以回答一些復雜問題。

    Orca 2 共有 70 億和 130 億兩種尺寸,部分融合了 Llama 2 LLM 參數,通過融合定制的高質量合成數據,提供更準確、更優秀的合成數據。

    表示 Orca 2 使用擴展的、高度定制的合成數據集進行訓練。Orca 2 支持分步處理、回憶然后生成、回憶-原因-生成、提取-生成和直接回答等各種推理技術,同時還能為不同的任務選擇不同的解決方案策略。

    Orca 2 模型相比較 Llama 2 和 WizardLM 等大型語言模型,在痛苦理解、常識推理、多步推理、數學問題解決、閱讀理解等方面更為優秀。

    image.png

    微軟表示:“我們的初步結果表明,Orca 2 的性能明顯優于類似尺寸的模型。它還達到了與至少大 10 倍的模型相似或更好的性能水平,展示了為較小模型配備更好推理能力的潛力。”

    IT之家附上微軟 Orca 2 模型的介紹鏈接,感興趣的用戶可以深入閱讀。



    關鍵詞: 微軟 生成式AI

    評論


    相關推薦

    技術專區

    關閉
    主站蜘蛛池模板: 揭阳市| 宜兰市| 峡江县| 东至县| 班戈县| 广南县| 昌吉市| 辛集市| 老河口市| 贺兰县| 孝义市| 玉门市| 张家港市| 泗阳县| 金堂县| 家居| 临武县| 祥云县| 汉源县| 富源县| 德兴市| 平顶山市| 手机| 伊宁市| 方正县| 治多县| 五指山市| 两当县| 慈溪市| 荣成市| 金山区| 乡宁县| 海南省| 莆田市| 武隆县| 景洪市| 栖霞市| 绿春县| 潞西市| 白朗县| 大兴区|