互联网科技博主

查看更多 a
求人才[许愿星]文心一言求人才,agent相关看过来[哇]

自然语言处理部/文心一言_Agent研发工程师
工作职责:
开展基于大语言模型的Agent研发工作
进行通用Agent策略和机制的研发工作,包含但不限于Agent模型研发、通用Agent和垂类Agent构建等
结合百度的产品和业务实现技术落 ​​​​...展开全文c
有没有人收到9月15号的ACL ARR新机制的审稿反馈啦?拖半个月了呀[允悲] ​​​​
latex语法真是玄学。。一张空纸上(或者最后一页上)画两个表格,总是如图1所示居中展现。查了下可以通过在序言中加入"\makeatletter \setlength{\@fptop}{0pt} \makeatother" 解决(O网页链接),但试了半天发现这个解决方案只对单栏(如table)有效,对双栏的(如table*)无效。最终解决 ​​​​...展开全文c
赞~self-supervised learning on low-level视觉任务上达到的SOTA//@刘群MT-to-Death:[good][good][good]
提起Transformer,就会想到BERT、GPT-3。但其实,这个在各种自然语言处理任务中「混迹」,强大的无监督预训练模型,现在已经在CV道路上越走越远了。最近华为北大等联合提出图像处理Transformer,就在降噪、超分、去雨等多项底层视觉任务达到SOTA>> °华为北大等联手打造的Transformer竟在CV领域... ​​​​
华为北大等联手打造的Transformer竟在CV领域超过了CNN:多项达到SOTA
量子位

华为北大等联手打造的Transformer竟在CV领域超过了CNN:多项达到SOTA

看到了一篇借助目标端语言模型知识蒸馏,优化高资源语种到低资源语种翻译模型的方法,爱丁堡的《Language Model Prior for Low-Resource Neural Machine Translation》。这样确实可以解决目标端不好用上预训练模型的问题。只是好奇如果已经用了BT,还能有多少delta[费解] ​​​​
[思考]好熟悉的味道。。感觉和Deepmind今年发的BYOL思路完全相同
【无监督表示学习】Exploring Simple Siamese Representation Learning
#论文推荐# 本文是何恺明关于无监督表示学习的一篇新工作,非常值得一读。本文主要针对应用非常普遍的孪生网络(Siamese Network)进行分析,以目前非常火的对比学习为例,孪生网络使用一个相同的网络处理同一个输入的两个不同表 ​​​​...展开全文c
《百度EMNLP 2020精选论文解读》新鲜出炉,包含了text-to-SQL, Document-Level情感分类,融合知识图谱的QA等工作。其中第一项“同声翻译的自适应分割策略”是我们百度翻译组的工作,用于百度翻译APP同传功能,小度耳机(京东有售哦)等产品。我们今年也支持了中国国际进口博览会、服贸会、全球人工智能 ​​​​...展开全文c
发现一篇有意思的工作,讯飞在EMNLP2020的短文《Is Graph Structure Necessary for Multi-hop Question Answering?》实验加了Pretrained embedding+finetuning后,用两层Transformer吊打酷炫GNN。我也一直质疑那些手工规则连接的GNN边真能有多大用?self-attention应该是都能学到的。论文链接: ​​​​...展开全文c
//@刘群MT-to-Death:赞👍//@52nlp :[good]//@刘知远THU : 很全面呀!推荐!
2018年即将结束,在18年的最后一个工作日,清华大学自然语言处理组整理了一份机器翻译论文的阅读清单想给大家看。这份阅读清单里回顾了统计机器翻译(SMT)时代的亮点论文,并概括了近期神经机器翻译(NMT)方向下的各个子领域,其中包括:模型架构、注意力机制、开放词表问题与字符级别神经机器翻译、 ​​​​...展开全文c
  • 长图

正在加载中,请稍候...