小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

GitHub標星3600:最會編故事的OpenAI語言模型,現(xiàn)已加入PyTorch BERT豪華陣容...

 生物_醫(yī)藥_科研 2019-02-19

 左為GPT-2,右為BERT

上周,OpenAI腦洞天大的語言模型GPT-2,用獨角獸的故事震精了世界。

谷歌BERT“史上最強”的位子沒坐多久,便有了光芒萬丈的后輩。

如今,那個幫BERT做了PyTorch實現(xiàn)的團隊,已經(jīng)火速在BERT項目里增加了GPT-2支持,并收到了推特用戶的盛贊。

看來,就算GPT-2只開源了縮小版,也值得珍惜,畢竟是有1.17億個參數(shù)的模型。

都到碗里來

十幾個小時前,名叫HuggingFace (抱抱臉) 的團隊,發(fā)布了Pytorch-bert v0.6更新。

這次更新的內容,就是增加了GPT-2縮小版的預訓練模型,以及與模型搭配的常用腳本示例。

不過,為OpenAI家的語言模型添加支持,在Pytorch-bert項目里,已經(jīng)不是第一次了:

一周前發(fā)布的v0.5,就增加了GPT,那是GPT-2的上一代。

同時增加的,還有谷歌的Transformer-XL,那是1月中旬發(fā)布的語言模型,可以理解超長的上下文關系,比普通Transformer快1800多倍

也就是說,地球上知名NLP模型的PyTorch實現(xiàn),正在項目里面不斷集結,場面一派祥和。

這個學名叫pytorch-pretrained-BERT的項目,已在GitHub上收集了3600多顆星。

當然,項目的主業(yè)還是BERT,有三個BERT模型提供:

第一個是原味BERT,第二個是帶序列分類器的BERT,第三個是帶token分類器的BERT (用來做問答) 。

來吧,抱抱臉

HuggingFace (“抱抱臉”) 團隊原本就是做聊天機器人的,所以主要的貢獻也在自然語言處理 (NLP) 領域。

除了BERT的PyTorch實現(xiàn)之外,團隊還發(fā)布過許多其他的源代碼和友善的教程,也都是基于PyTorch。

比如,教你給NLP任務加速100倍:
https:///huggingface/100-times-faster-natural-language-processing-in-python-ee32033bdced

用PyTorch實現(xiàn)了從語言中識別情緒的DeepMoji模型:
https://github.com/huggingface/torchMoji

還用PyTorch實現(xiàn)了OpenAI優(yōu)化過的Transformer模型:
https://github.com/huggingface/pytorch-openai-transformer-lm

所以,發(fā)生了GPT-2這樣的重大進展,“抱抱臉”自然是及時響應了。

管他OpenAI敢不敢開源15億參數(shù)的完整模型,管他要不要改名ClosedAI呢。



    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多