深圳幻海软件技术有限公司 欢迎您!

  • 内存用量1/20,速度加快80倍,QQ提全新BERT蒸馏框架,未来将开源

    腾讯QQ团队研究员对BERT进行了模型压缩,在效果损失很小的基础上,LTD-BERT模型大小22M,相比于BERT模型内存、存储开销可降低近20倍,运算速度方面4核CPU单机可以预测速度加速80余倍。相关代码和更多结果将在近期开源。BERT已经被验证是解决口语化短文本语义量化的极为有效的工具,对于口

推荐阅读