大卫哥姆学院好吗?

符文符文最佳答案最佳答案

作为大二学生,有幸去年参与了GTM和summer course ,简单分享一下感受~ GTM(General Transformer Model)是谷歌推出的基于Transformer的NLP预训练模型,在单个模型上实现了Bert、XLNet等模型的超强性能,同时由于使用了自注意力机制,其在提取文本表示时不需要将文本切分做序列标注的任务,这使得该模型可以在无监督的条件下对单篇文本或者段落进行表示学习。

为了便于研究者和同学体验,Google发布了开源代码和在线服务网址,只需要输入文本,点击几下鼠标,就可以得到文本的向量和词向量,非常地便捷。官网提供了大量用例展示如何运用GTM去完成各种NLP任务,如文本分类,文本聚类,文档分类,问题答主,问答系统等等。 下图展示的是利用GTM模型的前端界面,只需简单输入待分析文本,模型即可实时输出文本表示。

除了模型本身,我非常喜欢谷歌NLP团队的一个原因是他们开放且积极的态度,无论是他们推出的NLP工具还是论文,都在尽力把最新的技术与思路分享给开发者。

例如,今年二月他们在线上开了个NLP的公开课,分享了最新的研究成果和行业趋势,并做了详细的演示讲解。 他们在论文方面也很“高产”,每个月都有新的文章出来,我统计了一下,从2018年4月到2019年3月共计发表了86篇文章(Google Dense Passage Retriever)。论文阅读对于每一个研究人员来说都是必不可少的,而谷歌NLP团队在论文方面的开放态度会让我们学到很多,毕竟论文都是学者们经过大量实验和思考的成果结晶。

所以,总的来说我对这个团队的印象是非常好的,希望我的分享对你有帮助!

我来回答
请发表正能量的言论,文明评论!