电子发烧友网报道(文/吴子鹏)日前,脉脉高聘人才智库数据显示,2023年AIGC人才招聘需求激增,1月份至2月份发布的AIGC岗位数量同比增长35%。由于需求量巨大,企业为了抢人将薪水抬到了一个很高的水平。据悉,在热招岗位中,图像识别、算法研究员、深度学习等岗位的年薪均已达百万元,非技术岗位AIGC产品经理的年薪水平也达到90万元。而企业对这些岗位的要求仅仅是有相关工作经验3年。
随着OpenAI推出GPT-4大模型以及相关应用,AI大模型已经火出圈,即便是寻常百姓都都聊上几句ChatGPT,目前以华为、阿里、百度为代表的国内科技公司,以及以谷歌、微软为代表的国外科技公司,都在花费重金投资AI大模型。同时,业界盛传GPT-5早已完成训练,并极有可能在GPT-6产生自主意识。然而,狂飙的AI大模型引起了人们对潜在风险的担忧,就连OpenAI CEO奥特曼也认为,AI已经出现了无法解释的推理能力,可能出现“AI杀死人类”。
AI大模型走到了产业的第一个十字路口。
AI大模型人才稀缺
虽然OpenAI的ChatGPT,百度的文心一言,以及其他相关的对话式AI大模型目前的效果还有诸多待完善的地方,尤其是经常出现很多事实性错误,不过AI大模型的威力让世人清晰地见识到了AI作为底层技术的赋能价值。过往,没有任何一款AI产品能够带来如此震撼的效果。
就连微软创始人比尔·盖茨都表示,人工智能已经进入了一个全新的时代,而且它已经与互联网、手机等技术一样重要,把这些技术连接在一起,可以创造出更多创新性的应用。其中,OpenAI的GPT模型被认为是最具影响力和革命性的技术之一。
产业热度高必然就会吸引更多的企业参与其中,根据中信建投证券发布的《生成式AI专题研究报告》,国内目前已经有华为、百度、阿里、科大讯飞、格灵深瞳、云从科技、海天瑞声、拓尔思、昆仑万维、万兴科技、中文在线等数十家企业在研究AI大模型,方向涉及对话、绘画、文本辅助、作曲、元宇宙、内容创作等诸多方面。企业密集地涌入AI大模型领域,第一个受到挑战的环节就是人才方面。
此前,在猎聘发布的《ChatGPT相关领域就业洞察报告》中有提到,我国人工智能人才紧缺程度持续高于互联网总体水平,作为ChatGPT核心技术的AI大模型方向缺人情况更为突出。报告中主要指出三类人才的短缺情况。首先是预训练模型方面人才短缺,该岗位主要负责根据标注好的数据,对模型完成训练,由于现阶段大模型融合文字、图片、音视频等多种内容,因此主要是多模态预训练;其次是对话机器人方向,该岗位主要负责人工智能对话机器人和自然语言理解后台技术研发和优化,更偏向应用端;第三个是AIGC岗位,主要负责大模型的搭建和调优。
在《ChatGPT相关领域就业洞察报告》中,三大稀缺岗位的平均薪酬是33万元左右,其中AIGC以39.08万居首;对话机器人为34.89万元;预训练模型为33.93万元。
不过脉脉高聘人才智库数据显示,在供需比严重失衡的情况下,企业给AI大模型方面人才开出的工资远超这一水平。主要原因在于,国内AI大模型方面人才主要来源以百度文心一言大模型团队为代表的成熟团队,因此这几个团队遭遇了疯狂的挖角,有3年相关工作经验的员工年薪就可达到百万元。
人才解决方案商科锐国际业务总监景晓平表示,从过往经验来看,AI行业开出百万元年薪很正常,出现仅凭3年工作经验就能拿到百万元年薪的现象,是由市场需求推动的。“在需求出现的时候,企业愿意以超出市场平均水平的薪酬招聘具有相关工作经验的从业者,让相关业务快速做起来。”
当然,不只是国内高薪抢人,国外也是如此。就以OpenAI来讲,该公司挖角谷歌的行为受到了很大的非议。根据相关报道,有机构对当时OpenAI的736名进行了背景分析,其中59人之前就职于谷歌,其次是34人曾就职于Meta,然后苹果15人,Dropbox 是14人 ,亚马逊是11人。并且,在ChatGPT发布前后,还有10位谷歌顶级AI大牛加盟了OpenAI。
马斯克等人叫停AI大模型训练
这边企业在打人才大战,另一边科技大牛却联合起来叫停AI大模型进一步发展。
从各方面来看,AI大模型都已经展现出颠覆社会的力量,尤其是在生产力方面,AI大模型让人机协作过渡到机器单独操作成为可能。然而,大模型不仅让AI可能拥有非凡的智慧,也可能带来巨大的风险。
于是,近日非营利性组织未来生命研究所(Future of Life Institute)公布了一封公开信,呼吁所有AI实验室暂停可能比GPT-4更为强大的AI大模型研究至少6个月。这封公开信的名字是《暂停大型人工智能研究》,联名人除了马斯克,还包括苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等上千名科技大佬和AI专家。
公开信中提到,有大量研究表明,具备人类水平性能的AI大模型可能会给社会、人类带来目前无法预测的风险,现阶段就应当投入相应的资源,对这些AI模型进行规划及管理。同时只有当确信这类AI大模型的影响是积极的、风险是可控的,才能够继续开发,并呼吁所有实验室暂停这类AI大模型的研究,否则应当让监管机构介入、与开发者共同制定监管措施。
目前,人们对GPT-4等大模型有多方面的担忧。其中之一是害怕这些大模型成为有AI设置权限的人控制世界的工具,就连GPT大模型之父阿尔特曼也公开支持这一观点。他在受访时表示,“AI至今仍然是一种非常受人控制的工具。但一些拥有AI输入控制权的人可能无视人们对人工智能设置的一些安全限制。”他还认为,GPT在写代码方面已经越来越好了,而这也有可能被用于网络攻击。
其二是GPT等大模型可能导致人类智力倒退。相关消息表示,GPT-5大模型已经完成对人类拥有互联网以来所有文字和图片等相关数据进行训练,其拥有的智慧已经远远超出了人类的极限。因此,远大集团董事长兼总裁张跃在日前某活动上表示,以ChatGPT为代表的新科技,可能替代的是高智商工作。“如果过度依赖工具,人会变蠢,满腹经纶的教授也会变成儿童了,因为人们不用思考了”。目前,已经有相当一部分院校明令禁止自己的学生使用GPT等大模型产品。
其三便是AI大模型可能出现对人类生存的威胁,这也是OpenAI CEO奥特曼认同的观点。日前,一位斯坦福大学教授发现,GPT-4竟然能引诱人类提供开发文档,在30分钟就拟定出了一个完整的“外逃越狱”计划。因此,大家担心,如果GPT进一步升级,它很有可能产生对抗性智能,拥有自主意识。
目前,GPT等AI大模型在飞速狂飙,全球主要国家和地区都将其作为未来发展的重要领域。不过很明显,监管还远远不到位,或者说是严重缺失。在AAAI 2023(Association for the Advancement of Artificial Intelligence)国际先进人工智能协会也曾有博文指出,监管部门没有为新一代人工智能模型的出现做好充分的准备。
后记
从技术本身而言,AI大模型进一步释放了AI的技术潜力,使得产业发展进入了一个全新的阶段。为了能够在这个巨大的蓝海中占据主动,企业开启抢人大战是自然而然的事情。然而,过去二三十年里,互联网在法律法规方面的缺失在AI大模型领域被进一步放大了,因为这一领域真的是日新月异。并且,AI大模型已经表现出人类不能理解的行为,我们确实需要停下来确保它是真正安全的。
不过,产业的博弈才刚刚开始,360集团创始人周鸿祎就认为不该叫停GPT-5,认为不发展才是最大的不安全。
-
AIGC
+关注
关注
1文章
362浏览量
1543
发布评论请先 登录
相关推荐
评论