第668章 终章:亲手帮你关上星际之门(4 / 5)

投票推荐 加入书签 留言反馈

  “ai改稿比我还6,饭碗危了!”
  “开源免费,开发者狂喜!”
  “中文理解力拉满!分析城市政策时,连方言梗都get到了!”
  “训练成本仅为llama3的1/10?难怪巨头们坐不住了…”
  “感觉像是做梦,明明就在昨天我们还是很弱的,今天咋就领先了?快掐我一把。”
  “你不是在做梦,外网都疯了,老美那边各家媒体都在报导。”
  “用r1写短视频脚本,从选题到分镜半小时搞定,甲方爸爸狂夸‘有网感’。以前熬夜秃头,现在准时下班,它甚至比我懂b站热梗!”
  “翻译外交黑话时,r1居然能结合历史事件解读潜台词!虽然知识截止到2023年,但手动喂资料后输出质量吊打某g姓模型。”
  经过多年的锤炼和准备,现如今的deepseekr1比之陈平江印象里的版本更加强悍。
  一天后,苹果app store中国区免费榜显示deepseek站上首位,同时其在美区苹果app store免费榜也飚升至第一位,超越chatgpt。
  不仅震动了全球ai圈,还迅速引起国际社会的广泛关注和讨论。
  十条热搜八条都是给deepseek的。
  英伟达高级研究科学家jim fan,在社交媒体上表示:deepseek是2024年度开源大语言模型领域的“最大黑马”。
  deepseek-r1模型在数学能力基准测试中达到了80.5%的准确率,,比openai的o1更高。
  在编程领域的codeforces评测中达到了2441分的水平高于96.3%的人类参与者。
  开源实现弯道超车!
  deepseek r1被讨论的焦点集中在三方面。
  高性能、低训练与使用成本以及开源。
  每一条拿出来对竞争对手而言都是致命的,更何况三条迭加在一起!
  区别于openai“海量数据投喂”的方式,deepseek利用算法把数据进行总结分类,经过选择性处理之后输送给大模型。在提高训练效率的同时,也降低了deepseek的成本。
  对此,openai创始成员andrej karpathy表示,未来或许不需要超大规模的gpu集群了!
  deepseek-r1一跃成为开源社区hugging face上下载量最高的大模型,达10.9万次!
  这意味着,全球的开发人员正在试图了解这一模型,以辅助他们自己的ai开发。
  deepseek创始人梁文锋表示,开源更像一个文化行为,而非商业行为。
  在颠覆性的技术面前,闭源形成的护城河是短暂的,即使openai闭源,也无法阻止被别人赶超。
  加州大学伯克利分校ai政策研究员ritwik gupta表示,deepseek-r1的出现证明了“ai能力没有技术护城河”,并称中国的系统工程师,人才库比美国大得多,他们懂得如何充分利用计算资源来更高效地训练和运行模型。
  meta首席人工智能科学家杨立昆也在社交媒体表示,deepseek成功的最大收获是保持人工智能模型开源的价值,以便任何人都能受益,这就是开放研究和开源的力量。
  为ai领域带来更多可能!
  《福布斯》、《金融时报》、cnn、bbc全部都在报导!
  …… ↑返回顶部↑

章节目录