日期:2022/05/04

Facebook 母公司 Meta 針對 AI 人工智慧研究開放研究人員能夠造訪大型語言模型 Open Pretrained Transformer(OPT-175B),此為第一個具有 1,750 億參數的語言模型,以提供給更廣泛的人工智慧研究社群加以運用。

在 Meta AI 的一篇文章談到,大型語言模型是具有超過 1,000 億個參數的自然語言處理(natural language processing,NLP)系統,經過大量文字訓練,能夠閱讀並回答問題或者生成新的文字。雖然在部分情況下,研究人員可以透過付費 API 與這些模型進行交流,但完整的使用權限仍限於少數資源豐富的實驗室,這樣限制了研究人員理解大型語言模型如何運作。於是 Meta AI 以開放科學的承諾基礎,對外分享具有 1,750 億參數的大型語言模型 Open Pretrained Transformer,允許更多研究人員了解這項新的基礎技術。

Meta 表示,將授予學術研究人員以及政府機關、民間單位、相關產業有關人士造訪這個語言模型,目前版本包括預先訓練模型、以及訓練和使用它所需要的程式碼。為此 Meta 表示,希望增加定義這類技術的道德考量及其多樣性,而為防止濫用和保持完整性,在非商業許可下發表這個語言模型,以專注於研究用途。

 
來源:shutterstock

|原文網址|