Select Language

AI社区

公开数据集

tfhub伯特

tfhub伯特

421.86M
195 浏览
0 喜欢
0 次下载
0 条讨论
NLP Classification

数据结构 ? 421.86M

    Data Structure ?

    * 以上分析是由系统提取分析形成的结果,具体实际数据为准。

    README.md

    This is a copy of the TensortFlow Hub model available here: https://tfhub.dev/google/bert_uncased_L-12_H-768_A-12/1 Useful for using existing TF-hub code in competitions which do not allow internet access. More details This module contains a deep bidirectional transformer trained on Wikipedia and the BookCorpus. The details are described in the paper "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" [1]. References [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805, 2018.
    ×

    帕依提提提温馨提示

    该数据集正在整理中,为您准备了其他渠道,请您使用

    注:部分数据正在处理中,未能直接提供下载,还请大家理解和支持。
    暂无相关内容。
    暂无相关内容。
    • 分享你的想法
    去分享你的想法~~

    全部内容

      欢迎交流分享
      开始分享您的观点和意见,和大家一起交流分享.
    所需积分:0 去赚积分?
    • 195浏览
    • 0下载
    • 0点赞
    • 收藏
    • 分享