两周前,OpenAI又放了个大招:GPT3突然放出,其参数量达到1750亿,相当于1600个GPT1的大小,光把它用fp16半精度载入内存都得300GB,这还不包括实际训练中需要存储地梯度等中间变量。因此这也导致它训练起来非常昂贵,大概要花1200万美金,按现在汇率折合成人民币相当于8500多万元!!!
今天还有博客称,GPT-3可以看作是研究神经网络缩放律的一次尝试。就是说,从一个好的神经网络开始,把它增大十倍,它能变更聪明吗?聪明多少?会聪明十倍吗?能一直这样做下去,直到它变得无限智慧、或是把所有电脑都用上?”
这么好的东西当然是大家一起用才好。Open AI 官方刚刚宣布,发布针对GPT-3的API接口,让开发人员可以在日常英文工作中直接调用GPT-3,上手友好度+1。
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢