2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。
Meta官網于當地時間的2月24日,發(fā)布了一款新型的人工智能大型語言模型LlaMA,Meta首席AI科學家楊立昆表示,LLaMA 130億參數規(guī)模的模型性能在一些基準測試中由于OpenAI推出的GPT3。
從參數規(guī)模上來分析,Meta所提供的有130億,360億,70頁和330頁這4種參數規(guī)模,使用的是20種語言進行訓練。據Meta的首席執(zhí)行官馬克扎克伯格稱LlaMA發(fā)布這一模型的宗旨就是幫助研究人員不斷的推進工作,再生成對話文本以及總結書面材料,預留蛋白質結構,和證明數學定理等復雜的任務方面會有很大的前景。
LLaMA 130億參數規(guī)模的模型能夠在單個的CPU上運行,650億參數的模型可以和谷歌5400億參數的PaLM模型,DeepMind 700億參數的Chinchilla模型進行競爭。與OpenAI的GPT和谷歌的LaMDA機密訓練資料和演算所不同的在于LlaMA不僅性能更好,更小,而且是基于公開資料進行訓練的。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。