0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPT-4发布后,你的NLP研究发生了怎样的变化?

深度学习自然语言处理 来源:深度学习自然语言处理 2023-03-27 11:35 次阅读

答者:sonta

NLP已经死了

NLP社区可以大致分为两个group: 一种是相信AGI的,一种是不相信的。

对于前者来说,LLM的兴起当然是极其令人兴奋的。之前的NLP模型对他们来说基本全是玩具,而LLM才是通往AGI的正确道路。他们会高呼生在这个时代极其幸运,并且all in LLM research。这无疑是正确的方向之一,如果你对LLM有兴趣,野心和激情,那么all in LLM也是一个很不错的选择(如果有计算资源)。我摘录一些dalao对LLM未来研究的建议(侵删)仅供参考:

5a46d158-cbb1-11ed-bfe3-dac502259ad0.png

某dalao的建议

5b8a6a3e-cbb1-11ed-bfe3-dac502259ad0.png

某LLM教父的twitter

可是对我来说,(API-driven or prompt-driven or ..) LLM research只能让我感到无聊,并不能让我感到兴奋,所以我润ML了,非必要不投*ACL(NLP润ML人快来私戳,乐)。(Update:润了,但没完全润,还是准备做点scale up一些非attention架构的work的)

5bb3fd04-cbb1-11ed-bfe3-dac502259ad0.png

5be03ba8-cbb1-11ed-bfe3-dac502259ad0.png

我属于第一类

后者的很多人应该像我一样对LLM的research感到无聊,毕竟整个学科在越来越工程化。如果还打算继续留下来做NLP research的,就需要好好想想如何说服自己,自己做的研究是有意义的。毕竟骗审稿人容易,骗自己难,做自己都认为没价值的research还有什么乐趣呢?在LLM的边边角角继续打不痛不痒的补丁,然后被GPT的下一个版本薄纱,那这样,存在主义危机 (existential crisis) 就会像幽灵一样阴魂不散。

因为我是做Parsing的,所以我很早之前就体会到现在许多人才体会到的心情(See 为什么研究NLP句法分析的人不多?- sonta的回答 - 知乎 https://www.zhihu.com/question/489981289/answer/2148458380) 。就算没有LLM,在其他的比较强的神经网络里面,句法信息也是可有可无的。所以单纯做句法这个方向从实用的角度来看基本上可以说是毫无意义的,跟现在在LLM时代做其他NLP任务一样。那么我是如何说服自己做的呢?那当然是好玩。Parsing argubly是NLP最有意思的方向(从算法的好玩的角度来看)。现在的Parsing track已经大约有一半的work干脆实验都不做了,直接纯理论分析向(感谢Jason Eisner, Ryan Cotterell),就讲究一个好玩,乐。Parsing这种偏理论的方向至少还能玩玩理论,那么其他更加应用的方向呢?我不知道。反正我感觉没啥好做的。

举Parsing的例子主要是想说,Parsing领域的今天就是很多NLP子领域的明天。NLP很多dalao都是做Parsing起家,那他们为什么现在不做了呢?因为Parsing is almost solved,他们当然转向了其他更有前景的,unsolved的NLP子方向。而如今在LLM时代,NLP整个领域面临solved,很多中间任务几乎没有存在的价值,

ChatGPT 印证了模型大一统的可行性,这在未来五年会对 NLP 从业者带来怎样的冲击?(https://www.zhihu.com/question/575391861/answer/2832979762)

通向AGI之路:大型语言模型(LLM)技术精要(https://zhuanlan.zhihu.com/p/597586623)

甚至直接面向应用(e.g. 翻译 润色 纠错 etc)的任务都面临直接被GPT系列薄纱的危机, 那么小润润parsing,大润或许可以考虑润出做纯NLP的research,例如跟我一样润ML,或者做一些NLP与其他学科的交叉,

5bfd3b54-cbb1-11ed-bfe3-dac502259ad0.png

当然,你也可以跟着Neubig一起去做保护环境(狗头

5c244528-cbb1-11ed-bfe3-dac502259ad0.png

链接:https://www.zhihu.com/question/589704718/answer/2946475253

答者:霜清老人

5c6b5c56-cbb1-11ed-bfe3-dac502259ad0.png

链接:https://www.zhihu.com/question/589704718/answer/2945714404

答者:北极光

NLP community is broken

在过去,研究的意义是前瞻、指导应用发展。但如今 NLP 的学术研究已经跟不上工业界的进步,用有限资源做出的 toy 在两三个月的审稿周期后就已被淘汰。现在群魔乱舞的 peer-review 也无法有效评估和引导研究的价值,rebuttal、recycle 只会进一步浪费时间

一个越多被提及的说法是「ACL 系列会议爱收精致的垃圾」。NLP community 在历史的惯性逐步衰减后可能会迎来凋亡,或者成为圈地自萌的娱乐场

链接:https://www.zhihu.com/question/589704718/answer/2946162537

答者:匿名用户

没在名校强组,资源有限,在读博一,有点49年入国军的感觉了,能够感觉到这是AI时代,(巨头公司/机构)大有可为,但和我没什么关系了。大概在接下来的几个月一两年内能够看到大模型显著地改变无数人的生活、工作,创造出巨量的价值,明明我就在做相关的研究,但我不仅没法参与到这一切中,甚至还让自己原有的努力作废。

本来找了个ACL22的新数据集,加点ICLR、ICML里学到最新的trick,投个C会练练手。好巧不巧是个文本生成任务,看了下自己用的BART-base(别问,问就是large跑不起来),再看了下ChatGPT和GPT-4生成的结果,思考了一下午我的工作意义在哪里,怎么编出来意义,我已经想到审稿人在说:“糊弄的结果骗骗哥们儿可以,哥们打个哈哈就给你reject了,别真把自己骗了以为做的那坨东西就有意义了”。想了一下午,感觉或许能强行挽尊比GPT-3.5有限地强点,至于ChatGPT和GPT-4,无能为力。如果我的模型能胜出那只能是因为prompt没选好。

毕竟还是需要发故事会达到毕业要求的,可以遇见未来只能试着去啃一啃大模型懒得去关注的边边角角,讲一两个自己都不相信的科幻故事,换个文凭。

update:看了下评论大伙评论的一些观点:

快润:小润交叉学科,大润跨学科,超大润直接退学。感觉如果是硕士生还是硬着头皮做下去毕业就行。答主自己打算趁着最后一点时间,努力把手头做的工作投出去,之后无论是实习还是交换都会有底气一些。目前来看组里面也比较迷茫,不是很确定接下来做什么。大概率是去做NLP应用到某个具体领域(结合做的工程项目),但这样的交叉领域能不能让组里的大伙毕业完全不好说。

做LLM相关工作/api-driven的科研:可能这样的工作手快发几篇论文或者混个硕士毕业没问题,但是很难攒成一个博士毕业要求大论文的工作,大概率在开题之后的半年到一年,之前的工作就被新的LLM薄纱了,除了极少数有资源的博士生之外,很难专门去做LLM相关工作。

链接:https://www.zhihu.com/question/589704718/answer/2946249350

答者:刘聪NLP

有资源的NLPer,研究大模型基座;少资源的NLPer,研究大模型微调;没资源的NLPer,研究接口调用。

没有资源的,为什么不研究prompt模板呢,因为也已经有自动化模板生成API。

不开玩笑的说,大模型赋予小模型更多能力的工作,可能是之后要研究的重点,毕竟10亿参数的模型部署还可以尝试,100亿甚至1000亿的模型对于企业来说还是压力过大的。

5c82ed1c-cbb1-11ed-bfe3-dac502259ad0.png

链接:https://www.zhihu.com/question/589704718/answer/2946686094

答者:艾伦

坐标美国 Top 10 的 CS PhD。

最近听到很多NLP换方向的故事。我本人当初本来想做NLP方向,刚开始读博时临时改成Data Mining。

可以看到这是AI领域内的失业,将来领域外必然更多。详见以下论文:

5d49a164-cbb1-11ed-bfe3-dac502259ad0.png

曾经人们还坦言人类的创造力机器无法轻易取代,而现在来看,AI在很多方面的创造力甚至远高于人类

接下来可能会发生的事情:

会有一场超大模型的军备竞赛。先前大厂普遍认为搞超大模型没前途。从成本出发,无论是大规模高质量的数据标注还是模型训练,都很少有人愿意接受,大厂工程师们吃着安稳饭,更是不敢把身家性命抵到这种高成本却前途未卜的事情上。OpenAI是一家小而精,且对大模型有着极高信仰的组织。OpenAI 把事情做绝,用 ChatGPT 和 GPT-4证明了把模型做大所能达到的境界。其他大厂得以说服自己(以及PMs),顺着这个方向把模型做得更大更powerful。

NLP和CV方向会从学术界转向工业界的趋势。此处“工业界”特指有财力和资源实行大规模、高质量数据标注,以及超大模型训练的Big Tech。学术界当前的研究像小打小闹,这种小作坊的模式终究无法和大厂匹敌。试想一下,一个实验室几个PhD抢8块V100能做出什么呢?

NLP顶会会涌现出一大批在各个应用场景(e.g. social network, biomedical, text generation...)evaluate ChatGPT/GPT-4的文章,包括但不限于ACL/EMNLP/NAACL/EACL,这就跟当年 transformer 走红时一样

虽然GPT-4让很多传统 NLP 研究死掉,但也会开辟一些新坑。比如

DeepFake Detection 和 Misinformation Detection,因为将来社交网络上很多内容都会是GPT生成的,不仅仅是 GPT-4 的textual output这么简单(Generated Audio, Images, Videos, etc)

Societal Impacts of GPT-4,这和Social Computing更相关,不仅限于NLP研究了

感觉最近每一天都在印证未来简史中的情节。未来,已来

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4243

    浏览量

    90070
  • GPT
    GPT
    +关注

    关注

    0

    文章

    184

    浏览量

    14608
  • nlp
    nlp
    +关注

    关注

    1

    文章

    442

    浏览量

    21671
收藏 人收藏

    评论

    相关推荐

    人工通用智能的火花:GPT-4的早期实验

    研究人员一直在开发和完善大型语言模型(LLMs),这些模型在各种领域和任务中表现 出非凡的能力,挑战我们对学习和认知的理解。由OpenAI开发的最新模型GPT-4[Ope23
    发表于 06-20 15:49 1次下载

    GPT-4发布!多领域超越“人类水平”,专家:国内落后2-3年

    研究公司OpenAI正式发布了其下一代大型语言模型GPT-4。目前,ChatGPT的Plus订阅用户已经可以使用GPT-4,其他用户需要
    的头像 发表于 03-16 01:58 3404次阅读
    <b>GPT-4</b><b>发布</b>!多领域超越“人类水平”,专家:国内落后2-3年

    ChatGPT升级 OpenAI史上最强大模型GPT-4发布

    GPT-4发布 OpenAI正式推出了ChatGPT升级版本,号称史上最强大模型GPT-4发布。OpenAI期待GPT-4成为一个更有价值的AI工具。
    的头像 发表于 03-15 18:15 1953次阅读

    Open AI团队推正式宣布:GPT-4来了!

    GPT-4 的实际能力,团队也给大家提前打了一针强心剂,即便 GPT-4 在许多现实世界场景中能力不如人类,但在各种专业和学术基准上的表现,还是超过了人类的平均水平。
    的头像 发表于 03-16 11:10 1268次阅读

    ChatGPT又进化了,GPT-4发布

    GPT-4参加了多种基准考试测试,包括美国律师资格考试Uniform Bar Exam、法学院入学考试LSAT、“美国高考”SAT数学部分和证据性阅读与写作部分的考试,在这些测试中,它的得分高于88%的应试者。
    的头像 发表于 03-17 10:26 1223次阅读

    关于GPT-4的产品化狂想

    GPT-4是条件,而不是结果
    的头像 发表于 03-26 10:48 2273次阅读
    关于<b>GPT-4</b>的产品化狂想

    GPT-4是这样搞电机的

    GPT-4写电机基础程序没问题
    的头像 发表于 04-17 09:41 349次阅读
    <b>GPT-4</b>是这样搞电机的

    GPT-4 的模型结构和训练方法

    GPT-4发布报道上,GPT-4 的多模态能力让人印象深刻,它可以理解图片内容给出图片描述,甚至能在图片内容的基础上理解其中的隐喻或推断下一时刻的发展。
    的头像 发表于 05-22 15:21 1148次阅读
    <b>GPT-4</b> 的模型结构和训练方法

    微软提出Control-GPT:用GPT-4实现可控文本到图像生成!

    研究提出了一个简单而有效的框架 Control-GPT,它利用 LLM 的强大功能根据文本 prompt 生成草图。Control-GPT 的工作原理是首先使用 GPT-4 生成 TikZ 代码形式的草图。如下图 1 (c) 所示
    的头像 发表于 06-05 15:31 243次阅读
    微软提出Control-<b>GPT</b>:用<b>GPT-4</b>实现可控文本到图像生成!

    GPT-4已经会自己设计芯片了吗?

    研究人员就通过GPT-4造出了一个芯片。 具体来说,GPT-4通过来回对话,就生成了可行的Verilog。随后将基准测试和处理器发送到Skywater 130 nm
    的头像 发表于 06-20 11:51 238次阅读
    <b>GPT-4</b>已经会自己设计芯片了吗?

    OpenAI宣布GPT-4 API全面开放使用!

    GPT-4 API,并且利用 GPT-4 的创新产品范围每天都在增长。” “我们设想基于对话的模型未来可以支持任何用例。”
    的头像 发表于 07-12 14:55 440次阅读

    gpt-4怎么用 英特尔Gaudi2加速卡GPT-4详细参数

    GPT-4 详细参数及英特尔发布 Gaudi2 加速器相关内容,对大模型及 GPU 生态进行探讨和展望。英特尔发布高性价比Gaudi2加速卡GPT4详细参数分析。
    发表于 07-21 10:50 257次阅读
    <b>gpt-4</b>怎么用 英特尔Gaudi2加速卡<b>GPT-4</b>详细参数

    GPT-3.5 vs GPT-4:ChatGPT Plus 值得订阅费吗 国内怎么付费?

    GPT-4描述为“比其前身GPT-3.5先进10倍”。 自从OpenAI的大语言模型(LLM)GPT-4发布以来,我一直在使用它的最新版本。通过
    的头像 发表于 08-02 12:09 472次阅读
    <b>GPT</b>-3.5 vs <b>GPT-4</b>:ChatGPT Plus 值得订阅费吗 国内怎么付费?

    chatGPT和GPT4有什么区别

    GPT-1,随后的版本有GPT-2、GPT-3和最新的GPT-4GPT-4与之前的版本相比,预计将会有很多改进和变化。尽管该模型还没有发布,但从先前版本中的升级过程中,我们可以推断出一些
    的头像 发表于 08-09 15:18 514次阅读

    GPT-4没有推理能力吗?

    发布GPT-4 大模型,带来了比 ChatGPT 背后 GPT-3.5 更强的推理、计算、逻辑能力,也引发了全民使用的热潮。在各行各领域研究人员、开发者、设计师的使用过程中,「GPT-4 是最为领先的大模型」似乎已成为了公认的结果。
    的头像 发表于 08-11 14:20 459次阅读
    <b>GPT-4</b>没有推理能力吗?