一位自称「民科」的业余研究爱好者,却以一作身份,合作领域大牛Joel Weisberg,在天文学顶刊MNRAS上发表论文,这段不同寻常的经历被网友挖掘出来,并冲上知乎提问热搜→如何看待某「业余科学家」在天文学顶刊 MNRAS 以一作身份发表重量级论文?- 知乎


针对这个问题,当事人 @liangzx 也亲自给出了回答:

出处:www.zhihu.com/question/616579768


对于这段经历,不少网友都对其科研精神表示佩服,更有人表示:他的研究身份已经不属于民科,而是独立科学家。


但网友@Luyao Zou认为其争议不在于@liangzx是否民科出身,而是:他对自己工作的理解和对学术界对他的工作理解有出入。

出处:www.zhihu.com/question/616579768


而网友@不会弹钢琴的9号 也表示,MNRAS作为天文顶刊,却不收取发表费用,让所有人都可以平等地发表自己的成果:

出处:www.zhihu.com/question/616579768


对于@liangzx发表的论文Testing the rotating lighthouse model with the double pulsar system PSR J0737-3039A/B及其科研经历,你又有哪些看法呢?



#2023 vol.9

有争议Paper

Testing the rotating lighthouse model with the double pulsar system PSR J0737-3039A/B

Zhu-Xing Liang  / Yi Liang / Joel M. Weisberg


 READ  PAPER 


而本期Best Paper则花落Meta开源之光 — Llama 2: Open Foundation and Fine-Tuned Chat Models.


七月份Meta发布了免费可商用版本Llama 2:


扎克伯格在Facebook上发布的关于Llama 2的“宣言”

出处:facebook.com/Meta/posts/292330510122833/?paipv=0&eav=AfbtH-kmrhtprPvKxw8MMDfAkf0rUX57EDyRMGOekDEXxm6K1HXE27XTXB3hcRloxg4&_rdr


Llama 2 作为Llama大模型的延续,可免费用于研究和商业用途,该开源模型包括预训练和微调 Llama 语言模型(Llama Chat、Code Llama)的模型权重和起始代码 - 参数范围从 7B 到 70B。


根据Llama的官网介绍:


Llama 2 预训练模型接受了 2 万亿个标记的训练,上下文长度是 Llama 1 的两倍。其微调模型已经接受了超过 100 万个人类注释的训练。


Llama 2 在许多外部基准测试中都优于其他开源语言模型,包括推理、编码、熟练程度和知识测试。


而对Llama 2的发布,深度学习三巨头之一Yann LeCun表示这将改变大模型的市场格局。


出处:twitter.com/ylecun/status/1681336284453781505



#2023 vol.9

Best Paper

Llama 2: Open Foundation and Fine-Tuned Chat Models

Hugo Touvron / Louis Martin / Kevin Stone / Peter Albert / Amjad Almahairi等



点击论文卡片即可一键直达小程序查看,感兴趣的论文可以收藏起来深度阅读;9月热门Paper推荐榜单都已为你准备好,点击标题即可跳转阅读;如果有你在读的paper上榜,别忘了留下宝贵评价~



#2023 vol.9

最多在读论文

Deformable DETR: Deformable Transformers for End-to-End Object Detection

Xizhou Zhu  / Weijie Su / Lewei Lu / Bin LiXiaogang  WangJifeng Dai



#2023 vol.9

热门推荐 TOP5

Location-Aware Self-Supervised Transformers

Mathilde Caron  / Neil Houlsby / Cordelia Schmid




Code Llama: Open  Foundation Models for Code

Baptiste Rozière / Jonas Gehring / Fabian Gloeckle Sten Sootla / Itai Gat等




Masked Autoencoders Are Scalable Vision Learners

Kaiming He / Xinlei Chen / Saining Xie / Yanghao Li / Piotr Dollár / Ross Girshick



Towards Real-World Blind Face Restoration with Generative Facial Prior

Xintao Wang / Yu Li / Honglun Zhang / Ying Shan



A Survey of Large Language Models

Wayne Xin Zhao /  / Kun Zhou / Junyi Li / Tianyi Tang / Xiaolei Wang等



论文评审指南

1/ 打开你最近在读的论文,点击界面右侧“同行评审”👇


2/ 点击“写评价”,写下你对论文最真实的感受。点击提交即可!



ps:论文评选活动将在每个自然月月底统计评审信息,奖项将在次月月初公布。欢迎同学们参与评审!



如果你有想要推荐or强烈拔草的Paper,欢迎到ReadPaper官网留下你的评审!点击文末左下角“阅读原文”一键跳转,留下你的辛辣评论~



关于论文评审活动有疑问的同学,可添加小管家客服微信(ID:readpaper666)咨询,欢迎踊跃参与评审交流!


 READ  PAPER 

专 业 的 学 术 讨 论 社 区



 请扫描二维码添加小管家微信

(WeChat ID:readpaper666)


 了 解 更 多 请 咨 询 小 管 家




平台官方账号,欢迎关注




微信小程序


抖音官方

 bilibili 官方


官方网站:https://readpaper.com/

知乎:ReadPaper论文阅读

小红书:ReadPaper论文阅读


↙点击 阅读原文 ,论文一键直达

内容中包含的图片若涉及版权问题,请及时与我们联系删除