帕依提提
公开数据集
AI技术百科
人工智能数据集交易平台
人工智能模型
人工智能论文
法律法规库
首页
TagableDB数据集
公开数据集
AI技术百科
+ 探索
发布数据集
标注图像
提问题
分享AI知识
TagableDB-箱包数据集
单肩包数据集
斜挎包数据集
手提包数据集
公文包数据集
双肩包数据集
钱包数据集
手拿包数据集
拉杆箱数据集
旅行包数据集
腰包数据集
TagableDB-鞋数据集
女鞋数据集
男鞋数据集
TagableDB-腕表数据集
劳力士数据集
欧米茄数据集
卡地亚数据集
万国数据集
西铁城数据集
浪琴数据集
美度数据集
汉米尔顿数据集
天梭数据集
梅花数据集
TagableDB-首饰数据集
项饰数据集
腕饰数据集
戒指/指环数据集
耳饰数据集
胸针数据集
手把件数据集
头饰数据集
串珠配珠数据集
TagableDB-水果数据集
核果类数据集
仁果类数据集
浆果类数据集
柑果类数据集
瓠果类数据集
其它类数据集
TagableDB-坚果数据集
干制坚果(种子)类数据集
干制果实类数据集
干制果肉类数据集
干制种仁类数据集
Open datasets
查看全部分类
人物形态
自然语言处理
时尚与艺术
机器视觉
图像识别
语音识别
机器翻译
姿态评估
自动驾驶
农业农艺
工业制造
动物识别
无人机
机器人
文本检测
智能硬件
智能零售
智慧城市
植物
卫星遥感
首页
>
数据要素产业
>
搜索
技术文章:将BERT应用于长文本
背景自从谷歌的BERT预训练模型横空出世,预训练-下游任务微调的方式便成了自然语言处理任务的灵丹妙药。然而,复杂度高、显存消耗大等问题一直困扰着BERT等预训练模型的优化;由于BERT中Transformer(多层自注意力)关于输入文本长度L有的O()的时间空间复杂度,长文本消耗显存陡然增加
12-08 00:41
TAG:
CogLTX
BERT
相关搜索
在
公开数据集
找 CogLTX
在
TagableDB-包袋数据集
找 CogLTX
在
TagableDB-鞋数据集
找 CogLTX
在
TagableDB-腕表数据集
找 CogLTX
在
TagableDB-首饰数据集
找 CogLTX
在
TagableDB-水果数据集
找 CogLTX
在
TagableDB-坚果数据集
找 CogLTX
今日排行
109条
1
谷歌
6条
2
配送机器人
2条
3
PoseNet
3条
4
transformer
117条
5
研究
30条
6
核心
123条
7
专
5条
8
ToF
3条
9
Assistant
本周排行
3条
1
CPU
11条
2
OpenAI
2条
3
PoseNet
3条
4
transformer
4条
5
COVID
2条
6
虹软视觉
4条
7
李飞飞
3条
8
一批
5条
9
基金
本月排行
3条
1
CPU
11条
2
OpenAI
2条
3
PoseNet
3条
4
transformer
4条
5
COVID
2条
6
虹软视觉
4条
7
李飞飞
3条
8
一批
5条
9
基金
免费注册体验
联系我们
咨询 • 合作
在线咨询
点击在线及时咨询
在线留言
提交您的问题
业务合作
15911018798
返回顶部
返回顶部