学霸族

      对话生成

      共 1 篇网址
      排序
      发布更新浏览点赞
      乾元BigBangTransformer

      乾元BigBangTransformer

      BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
      30
      # AI# GPT# 多语言支持
      没有了
      学霸族
      OneNav 一为导航主题,集网址、资源、资讯于一体的 WordPress 导航主题,简约优雅的设计风格,全面的前端用户功能,简单的模块化配置,欢迎您的体验

      友链申请 免责声明 广告合作 关于我们

      扫码加QQ群学霸族
      扫码加QQ群
      扫码加微信学霸族
      扫码加微信
      Copyright © 2025 学霸族 由 OneNav 强力驱动 
      反馈
      让我们一起共建文明社区!您的反馈至关重要!
      网址
      网址文章书籍