模型|经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文 ?Transformer进行逆向研究。Transformer是Google团队在2017年6月提出的NLP经典之作,由AshishVaswani等人... 2021-12-28
Pre-LN|归一化提高预训练、缓解梯度不匹配,Facebook的模型超越GPT-3 在原始的Transformer架构中,LayerNorm通常在Residual之后,称之为Post-LN(Post-LayerNormalization)Transf... 2021-10-27
网络|不是每张图都要高清,华为诺亚动态分辨率网络入选NeurIPS 2021 相关论文已中稿NeurIPS2021。论文地址:https://arxiv.org/abs/2106.02898该论文指出识别每张图片所需要... 2021-10-25
GitHub|Transformer拿下CV顶会大奖,微软亚研获ICCV 2021最佳论文 10月11日-10月17日,原定于加拿大蒙特利尔举办的计算机视觉领域三大顶会之一——ICCV2021,正在... 2021-10-13
大小|patch成为了ALL You Need?挑战ViT、MLP-Mixer的简单模型来了 近年来,深度学习系统中的卷积神经网络在处理计算机视觉任务中,一直占据主要地位。但最... 2021-10-08
数据|用TensorFlow实现ML模型并调优:每秒可做3亿次预测 在一篇论文中,来自原生程序化DSP公司Zemanta的数据科学总监DavorinKopi?和工程师JanHartman展示了将... 2021-09-22
架构|综合LSTM、transformer优势,DeepMind强化学习智能体提高数据效率 实验表明,CoBERL在整个Atari套件、一组控制任务和具有挑战性的3D环境中可以不断提高性能。近... 2021-09-10
表现|Rookie首谈S10决赛,获胜最重要因素是上路,其次是Sofm表现 较为公认的分析是DWG要比SN更为稳定,但sofm一定是DWG的心腹大患,如果DWG能通过野区控制和线... 2020-10-29
RNG战队|TS花式吊打RNGM,胜者组实力断层,取消东西分区是否公平? 如果成都AG超玩会在对阵杭州LGD大鹅的比赛中,以1-3或者0-3的比分输掉的话,那么WB.TS将有机会... 2020-11-22